본 논문은 대규모 언어 모델(LLMs)의 다회차 상호작용 평가 및 향상에 대한 최근 발전을 종합적으로 검토한다. 수학 및 코딩과 같은 다양한 영역의 지시 사항 준수부터 역할극, 의료, 교육, 적대적 탈옥 설정에 이르는 복잡한 대화 참여에 이르기까지 작업별 시나리오에 중점을 두고 장기간 대화에서 맥락, 일관성, 공정성 및 응답성을 유지하는 과제를 체계적으로 조사한다. 현재의 벤치마크와 데이터 세트를 다회차 대화 평가의 진화하는 환경을 반영하는 일관된 범주로 구성하고, 다회차 설정에서의 다양한 향상 방법론(모델 중심 전략, 외부 통합 접근 방식, 에이전트 기반 기법)을 검토한다. 마지막으로, 미해결 과제를 논의하고 LLMs의 다회차 상호 작용의 강력함과 효과를 더욱 발전시키기 위한 연구의 미래 방향을 제안한다.