본 논문은 언어 모델의 생성 과정에서 엔트로피와 인간 텍스트에 대한 로그 손실 간의 불일치 문제를 연구합니다. 모델의 엔트로피가 길어질수록 증가하는 오류 축적 현상을 분석하고, 이 문제를 해결하기 위한 스케일링 효과 및 이론적 해결 가능성을 탐구합니다. 특히, 데이터셋 크기에 따른 미보정 현상의 스케일링 동작을 분석하고, 실제 언어 모델에서 이를 검증합니다. 또한, 엔트로피 감소와 로그 손실 유지를 동시에 달성할 수 있는 이론적 가능성을 제시합니다.