본 논문은 대규모 언어 모델(LLM)의 추론 과정에서 발생하는 환각(hallucination, 사실과 다른 내용 생성)과 나태함(laziness, 과도한 거절 또는 "모르겠습니다"와 같은 기본적인 응답) 문제를 해결하기 위해 Automatic Curriculum Expert Iteration (Auto-CEI) 방법을 제안합니다. Auto-CEI는 전문가 반복(Expert Iteration)을 통해 LLM의 추론 경로를 안내하고, 잘못된 경로를 수정하여 오류 누적을 줄이고 강건성을 향상시키며, 충분한 시도 후에는 적절하게 "모르겠습니다"와 같은 응답을 하도록 유도합니다. 또한, 자동 커리큘럼을 통해 보상을 조정하여 LLM이 능력 범위 내에서 자신감 있게 답변하고, 능력을 초과하는 작업은 거절하도록 동기를 부여합니다. 논문에서는 논리 추론, 수학, 계획 등 다양한 작업에서 Auto-CEI가 기존 최고 성능(SOTA) 기법들보다 우수한 성능을 보임을 실험적으로 증명하고, 코드를 공개합니다.