본 논문은 대규모 언어 모델(LLM)의 응답 일관성, 환각, 및 쿼리 도메인별 품질 변화 문제를 해결하기 위해, 토너먼트 스타일 ELO 랭킹과 다중 에이전트 추론을 활용하는 ART(Adaptive Response Tuning) 프레임워크를 제시한다. ART는 여러 LLM 에이전트가 경쟁, 비판, 협업을 통해 합의된 응답을 생성하도록 하여 단일 모델의 출력을 능가한다. 이 프레임워크는 설정 가능한 토너먼트 매개변수, 동적 에이전트 선택, 다양한 합의 융합 전략을 도입하며, 실험 결과는 전반적인 품질 지표에서 8.4% 향상, ELO 평점 수렴에서 R22 값 0.96 이상을 달성하여, 응답 정확성, 일관성, 신뢰성 측면에서 기존의 단일 모델 접근 방식보다 우수한 성능을 보인다.