본 논문은 대규모 언어 모델(LLM)의 효율성을 향상시키기 위해 다중 모델 간의 반복적인 대화를 활용하는 최근 연구 동향을 소개합니다. 기존 연구들이 협업을 자연 발생적인 현상으로 취급하는 한계를 지적하며, 협업에 특화된 두 에이전트(actor-agent와 critic-agent)를 훈련하는 Actor-Critic 기반 학습 프레임워크인 ACC-Collab을 제안합니다. ACC-Collab은 다양한 벤치마크에서 기존 최고 성능(SotA)의 다중 에이전트 기법들을 능가하는 성능을 보여줍니다.