본 논문은 최신 언어 모델의 텍스트 생성에서 최적의 디코딩 전략을 찾는 문제를 다룬다. 기존의 이론적 최적 전략(MAP)은 실제 성능이 좋지 않은 반면, Top-$k$나 Nucleus sampling과 같은 휴리스틱 전략이 좋은 성능을 보이지만 이론적 근거가 부족하다는 문제점을 지적한다. 이를 해결하기 위해, 본 논문은 텍스트 생성을 전략가(Strategist)와 자연(Nature)의 제로섬 게임으로 재구성하는 "디코딩 게임(Decoding Game)"이라는 이론적 틀을 제시한다. 여기서 전략가는 참 분포에서 신뢰할 수 있는 텍스트를 생성하려 하고, 자연은 참 분포를 적대적으로 왜곡한다. 단일 단계 디코딩 게임에 대한 최적 전략을 닫힌 형태로 유도하고, 적대적인 자연이 확률 최대화에 암묵적인 규제를 부과하며, Truncation-Normalization 방법들이 이 규제 하에서 최적 전략의 1차 근사임을 보인다. 또한, 디코딩 게임의 목적 함수와 매개변수를 일반화하여 greedy search, temperature scaling 및 그들의 하이브리드와 같은 다양한 방법들을 포함하는 거의 최적의 전략을 포괄한다. 실험적 결과를 통해 이론적 분석을 보완한다.