Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Rethinking Fine-Tuning when Scaling Test-Time Compute: Limiting Confidence Improves Mathematical Reasoning

Created by
  • Haebom
Category
Empty

저자

Feng Chen, Allan Raventos, Nan Cheng, Surya Ganguli, Shaul Druckmann

개요

대규모 언어 모델(LLM)의 발전은 복잡한 작업에서 성능 향상을 위해 테스트 시 컴퓨팅을 확장하는 것의 중요성을 강조한다. 본 연구에서는 테스트 시 컴퓨팅 전략 및 예산에 맞춰 모델 훈련을 최적화하는 방법을 탐구한다. 특히, $N$개의 독립적인 샘플에서 정답을 찾는 간단한 테스트 시 전략인 pass@N에 초점을 맞춘다. 연구 결과, 교차 엔트로피(CE) 손실로 훈련하는 것이 pass@N 정확도와 맞지 않아 훈련 시간이 길어질수록 pass@N 정확도가 감소하는 현상이 발생함을 발견했다. 이는 CE에 의해 유도된 모델의 과도한 자신감 때문이다. 과도한 자신감이 pass@N을 통한 테스트 시 컴퓨팅 확장의 걸림돌임을 실험적으로 확인했다. 또한, 모델의 자신감을 제한하고 pass@N 테스트 성능을 향상시키는 수정된 훈련 손실을 제안한다. 제안된 알고리즘은 MATH 및 MiniF2F 벤치마크에서 수학적 추론 능력을 향상시켰으며, 수학 문제 해결 및 다양한 형태의 증명 트리를 탐색하여 정리를 증명하는 데 효과적임을 입증했다. 본 연구는 LLM 개발의 두 가지 전통적인 분리된 단계인 훈련 시 프로토콜과 테스트 시 검색 및 추론 전략을 함께 설계하는 것이 중요함을 강조한다.

시사점, 한계점

시사점:
CE 손실을 사용한 훈련은 pass@N과 같은 테스트 시 컴퓨팅 전략과 정렬되지 않을 수 있다.
모델의 과도한 자신감은 pass@N 성능을 저해한다.
제안된 수정된 훈련 손실은 pass@N 성능을 향상시킨다.
훈련 시 프로토콜과 테스트 시 전략의 공동 설계를 통해 LLM 성능을 향상시킬 수 있다.
한계점:
수정된 훈련 손실의 일반화 성능에 대한 추가 연구가 필요하다.
다른 테스트 시 컴퓨팅 전략에 대한 영향 평가가 필요하다.
실험은 MATH 및 MiniF2F 벤치마크에 국한되어 있으며, 다른 작업에 대한 성능 검증이 필요하다.
👍