Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Steering LLM Thinking with Budget Guidance

Created by
  • Haebom

저자

Junyan Li, Wenshuo Zhao, Yang Zhang, Chuang Gan

개요

본 논문은 대규모 언어 모델(LLM)의 추론 길이를 효율적으로 제어하는 새로운 방법인 '예산 지침(Budget Guidance)'을 제안합니다. 기존의 LLM들은 성능 향상을 위해 과도한 추론을 수행하여 비용이 많이 들지만, 본 논문에서 제안하는 방법은 LLM의 미세 조정 없이도 가벼운 예측기를 사용하여 추론 과정을 목표 예산에 맞춰 조절합니다. 특히, 남은 추론 길이에 대한 감마 분포를 모델링하여 토큰 생성 시 소프트하게 생성 과정을 안내함으로써, 지정된 예산 내에서 전체 추론 과정을 유지합니다. 실험 결과, 수학 문제 벤치마크에서 기존 방법보다 상당한 토큰 효율 향상과 정확도 향상을 보였으며, 특히 제한된 예산 하에서 MATH-500 벤치마크에서 최대 26%의 정확도 향상을 달성했습니다. 또한, 질문 난이도 추정과 같은 부수적인 기능도 나타냈습니다. 소스 코드는 공개되어 있습니다.

시사점, 한계점

시사점:
LLM의 추론 길이를 효율적으로 제어하는 새로운 방법 제시
LLM 미세 조정 없이도 추론 길이 제어 가능
제한된 예산 하에서도 성능 향상 가능 (MATH-500 벤치마크에서 최대 26% 정확도 향상)
토큰 효율성 개선 (전체 추론 모델 대비 63% 토큰 사용으로 경쟁력 있는 정확도 유지)
질문 난이도 추정 등 부수적인 기능 발현
다양한 작업 영역으로의 일반화 가능성
한계점:
제안된 방법의 성능은 특정 벤치마크(MATH-500)에 대한 결과에 기반하며, 다른 작업 영역이나 벤치마크에서의 일반화 성능은 추가 연구가 필요함.
감마 분포를 사용하는 예측기의 성능 한계가 존재할 수 있음. 다른 분포나 예측 모델을 사용하는 것이 성능 향상에 기여할 수 있음.
예산 지침의 매개변수 조정에 대한 연구가 추가적으로 필요할 수 있음.
👍