본 논문은 여러 대규모 언어 모델(LLM) 에이전트들이 협업하여 추론 문제를 해결하는 지속적인 협업 학습 시스템을 제시합니다. 이 시스템은 에이전트들이 공유 메모리를 활용하여 경험을 통해 성능을 향상시키는 것을 목표로 합니다. 논문에서는 사고 연쇄(chain-of-thought) 추론 방식의 상호 운용성, 다중 에이전트 협업, 메모리 저장소의 연구를 통해 이 시스템의 기반을 마련합니다. 자기 일관성(self-consistency)을 가진 동일한 에이전트를 넘어서, 다양한 예시를 가진 다양한 컨텍스트 에이전트와 투표 대신 요약 에이전트를 도입합니다. 고정된, 지속적으로 학습된 메모리 저장소를 생성하고, 고정된, 무작위, 유사도 기반 검색 메커니즘과 결합하여 실험합니다. 세 가지 기반 추론 작업에 대한 두 개의 LLM의 추론 성능에 대한 체계적인 연구를 통해 다양한 방법이 성능에 기여하는 부분을 밝히고, 무작위 예시 선택이 더 원칙적인 접근 방식보다 종종 더 나은 결과를 가져올 수 있으며, 일부 작업에서는 예시를 포함하는 것이 약한 모델과 강한 모델 모두의 성능을 저해할 수 있음을 보여줍니다.