본 논문은 대규모 언어 모델(LLM)의 신뢰성 문제를 해결하기 위해 거짓 발견률(FDR) 제어 방식을 제시한다. 기존의 불확실성 기반 방법론의 한계를 극복하고, 오류의 비율을 특정 목표 위험 수준 이하로 유지하면서 예측의 정확도를 높이는 것을 목표로 한다. 이를 위해, 선택적 예측을 선형 기대 제약 조건(LEC)을 통해 제약된 결정 문제로 재해석하고, 교환 가능한 검증 샘플을 사용하여 FDR 제약 조건을 만족하는 임계값을 계산한다. 또한, LEC를 두 모델 라우팅 메커니즘으로 확장하여, 한 모델의 불확실성이 임계값을 초과할 경우 더 강력한 모델에 위임하여 통합 FDR 보장을 유지한다.