대규모 언어 모델(LLM)을 블랙박스 에이전트로 취급하여 협업 환경에서의 조정 방식을 연구. 7500개의 다중 에이전트, 다중 라운드 토론을 시뮬레이션하고, 125000개 이상의 발화를 생성하여 최종 주석과 상호 작용 기록을 캡처. 코드 안정성, 의미론적 자기 일관성, 어휘 자신감 등의 프로세스 수준 지표와 감성 및 수렴 측정값을 도입하여 조정 역학을 추적. 출력 임베딩의 기하학적 변화를 분석하여 의미론적 압축을 보여줌. LLM 그룹은 어휘적, 의미론적으로 수렴하며, 비대칭적인 영향 패턴을 개발하고, 명시적인 역할 프롬프트 없이 협상과 유사한 행동을 보임. 블랙박스 상호 작용 분석을 통해 새로운 조정 전략을 발견하는 방법을 제시하며, 내부 프로브 기반 해석 가능성 방법의 확장성을 보완.