본 논문은 최근 대규모 언어 모델(LLM)의 발전으로 소스 코드 생성 능력이 향상되었지만, 이러한 모델들이 환각(hallucination) 현상, 즉 잘못되고 비논리적이며 정당화할 수 없는 정보를 생성하는 경향이 있다는 점에 주목합니다. 특히 코드 생성 시 발생하는 환각은 사용자가 식별하고 수정하기 어렵다는 문제가 있으며, 이는 코드베이스에 잠재적인 위험을 초래합니다. 따라서 본 논문은 CodeLLM(코드 생성 LLM)이 생성하는 환각에 대한 최근 연구와 기술들을 조사하여 환각의 유형을 분류하고, 기존 벤치마크 및 완화 전략을 검토하며, 미해결 과제를 제시합니다. 마지막으로 CodeLLM이 생성하는 환각의 탐지 및 제거를 위한 추가 연구 방향을 제시합니다.