본 논문은 최신 언어 모델이 가끔 환각된 텍스트와 같은 바람직하지 않은 출력을 생성하는 문제를 해결하기 위해, 불확실성을 적극적으로 고려하는 새로운 디코딩 방법을 제시합니다. 최소 베이즈 위험(MBR) 디코딩을 일반화하여 모델 파라미터에 대한 사후 확률을 MBR의 기대 위험 계산에 통합함으로써, 모델의 불확실성을 디코딩 과정에 반영합니다. 이를 통해 출력 선택과 생성 거부 결정 모두에 유용하며, 오버헤드 없이 성능 향상을 제공할 수 있음을 보여줍니다. 또한, 사후 확률 학습을 위한 다양한 방법들을 벤치마킹하고, 예측 다양성이 성능 향상에 기여함을 확인하며, 코드를 공개합니다.