대규모 언어 모델(LLM)은 대화형 시스템에서 인간과 유사한 응답을 생성하며 놀라운 성공을 거두었지만, 개인화나 특정 지식을 고려해야 할 때 부족한 점이 있다. 본 논문에서는 단일 LLM 내에서 응답을 개선하는 기존 방식의 한계를 극복하기 위해, 다중 에이전트 프레임워크를 활용하여 응답을 개선하는 방법을 제안한다. 각 에이전트는 사실성, 개인화, 일관성과 같은 특정 측면을 담당하며, 동적 통신 전략을 통해 가장 관련 있는 에이전트를 선택하고 조정하여 대화 품질을 향상시킨다.