대규모 언어 모델(LLM)은 자기 인식의 불일치로 인해 환각 현상을 자주 일으켜, 지식 경계를 넘어서는 질문에 잘못된 출력을 생성합니다. 기존의 접근 방식은 불확실성 추정이나 질문 거부를 통해 환각 현상을 완화하지만, 계산 비효율성이나 유용성 저하의 문제가 있습니다. 이러한 문제를 해결하기 위해, 본 논문에서는 신뢰성과 사용성을 조화시키는 빠른 추론 시스템과 느린 추론 시스템을 통합한 명시적 지식 경계 모델링(EKBM) 프레임워크를 제안합니다. 이 프레임워크는 먼저 빠른 사고 모델을 사용하여 신뢰도 레이블이 지정된 응답을 생성하여 높은 신뢰도 출력을 즉시 사용할 수 있도록 합니다. 불확실한 예측의 경우, 느린 개선 모델이 정확도를 높이기 위해 표적 추론을 수행합니다. 모델의 동작을 제안된 목표에 맞추기 위해, 본 논문에서는 작업 성능을 저하시키지 않고 자기 인식을 향상시키는 하이브리드 교육 파이프라인을 제안합니다. 대화 상태 추적 작업에 대한 평가는 EKBM이 불확실성 기반 기준보다 우수한 모델 신뢰성을 달성함을 보여줍니다. 추가 분석 결과, 개선 작업은 계산 오버헤드를 낮게 유지하면서 정확도를 크게 높입니다. 본 연구는 오류에 민감한 애플리케이션에서 LLM 신뢰성을 향상시키고 정확성과 실용성의 균형을 맞추는 확장 가능한 패러다임을 확립합니다.