본 논문은 다양한 문화적 맥락에 대한 대규모 언어 모델(LLM)의 적응성을 향상시키기 위해 다중 에이전트 논쟁 프레임워크를 제안합니다. 단일 LLM, 단일 턴 방식의 기존 연구와 달리, 서로 다른 LLM들의 강점을 활용하여 문화적 적응성을 높이는 데 초점을 맞춥니다. 두 개의 LLM 기반 에이전트가 문화적 시나리오에 대해 논쟁하고 공동으로 최종 결정을 내리는 프레임워크를 제시하며, 에이전트가 독점적으로 논쟁하거나 자기 반성과 논쟁을 동적으로 선택하는 두 가지 변형을 제안합니다. 7개의 다양한 크기의 LLM과 21개의 조합을 사용하여 75개국의 사회적 에티켓 규범에 대한 NormAd-ETI 벤치마크로 평가한 결과, 논쟁을 통해 전반적인 정확도와 문화 집단 간의 형평성이 향상됨을 보여줍니다. 특히, 다중 에이전트 논쟁을 통해 상대적으로 작은 LLM(70억~90억 파라미터)이 훨씬 큰 모델(270억 파라미터)과 비슷한 정확도를 달성할 수 있음을 확인했습니다.