대규모 언어 모델(LLM)의 급증으로 인간과 기계 저작 사이의 경계가 모호해지면서 학문적 진실성과 정보 신뢰성에 실질적인 위험이 발생했습니다. 기존의 텍스트 감지기는 단일 방법론적 패러다임에 의존하여 일반화 성능이 낮고, 특히 중요한 학술 텍스트에서 높은 오탐률(FPR)을 보입니다. 본 논문에서는 세 가지 보완적인 감지 패러다임을 체계적으로 융합하는 이론적 근거를 갖춘 하이브리드 앙상블을 제안합니다. (i) 심층 의미론적 특징 추출을 위한 RoBERTa 기반 변환기 분류기, (ii) 섭동 유도 가능성 곡률을 사용하는 GPT-2 기반 확률적 감지기, (iii) 문체 패턴을 포착하는 통계적 언어학적 특징 분석기입니다. 핵심 혁신은 F1 점수를 최대화하기 위해 확률 심플렉스에서 앙상블 가중치를 경험적으로 학습하는 최적화된 가중 투표 프레임워크에 있습니다. 편향-분산 분석을 제공하고 낮은 모델 간 상관관계(rho ~ 0.35-0.42)를 경험적으로 입증하며, 이는 분산 감소의 핵심 조건입니다. 30,000개의 문서로 구성된 대규모, 멀티 제너레이터 코퍼스에 대해 평가한 결과, 본 시스템은 94.2%의 정확도와 0.978의 AUC를 달성했으며, 학술 텍스트에서 오탐을 35% 상대적으로 줄였습니다. 이는 교육 및 기타 중요한 분야에서 실제 적용을 위한 더욱 신뢰할 수 있고 윤리적으로 책임감 있는 감지기를 제공합니다.