본 논문은 반복적인 개선을 통해 대규모 언어 모델(LLM)의 출력을 향상시키는 자가 개선의 최신 발전을 다루고 있다. 기존 자가 개선 방법의 한계를 극복하기 위해, 본 논문에서는 LLM이 생성 과정에서 출력을 개선할 수 있도록 하는 새로운 방법인 ProActive Self-Refinement (PASR)을 제안한다. PASR은 모델의 내부 상태와 진화하는 컨텍스트에 따라 언제, 어떻게 개선할지 능동적으로 결정한다. 10개의 다양한 작업에 대한 광범위한 실험 결과, PASR은 문제 해결 성능을 크게 향상시키는 것으로 나타났다. 특히 Qwen3-8B 모델에서 PASR은 표준 생성 방식에 비해 평균 토큰 소비량을 41.6% 줄이면서 정확도는 8.2% 향상되었다.
시사점, 한계점
•
시사점:
◦
LLM의 출력 품질 향상을 위한 능동적인 자가 개선 방법 제시
◦
토큰 소비량 감소 및 정확도 향상 동시 달성
◦
다양한 작업에 대한 성능 검증
◦
GitHub을 통한 코드 및 기준선 공개
•
한계점:
◦
구체적인 방법론에 대한 상세 정보 부족 (e.g., "모델의 내부 상태"가 어떻게 활용되는지)