Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Self-Steering Language Models

Created by
  • Haebom

저자

Gabriel Grand, Joshua B. Tenenbaum, Vikash K. Mansinghka, Alexander K. Lew, Jacob Andreas

개요

본 논문은 언어 모델(LM)의 테스트 시간 추론(test-time reasoning)의 속도와 비용 문제를 해결하기 위해 DisCIPL이라는 새로운 방법을 제시합니다. DisCIPL은 Planner 모델이 특정 작업에 맞는 추론 프로그램을 생성하고, 여러 Follower 모델이 이를 실행하는 방식으로 동작합니다. 이를 통해 LM이 재귀적인 검색 절차를 생성하여 추론을 효율적으로 안내할 수 있게 됩니다. 소규모 Follower 모델(예: Llama-3.2-1B 또는 Qwen3-1.7B)을 사용하는 DisCIPL은 GPT-4o 및 o1과 같은 대규모 모델과 비슷하거나 더 나은 성능을 복잡한 제약 조건 생성 작업에서 보여줍니다. 또한, 최적의 N개 샘플링보다 우수한 병렬화된 Monte Carlo 추론 전략을 제공하며, 추가적인 미세 조정 없이도 기존 LM으로 자동 구현이 가능합니다.

시사점, 한계점

시사점:
대규모 언어 모델 없이도 복잡한 추론 작업 수행 가능성 제시
기존 LM을 활용한 효율적이고 검증 가능한 추론 방법 제안
병렬화된 Monte Carlo 추론 전략을 통한 성능 향상
추가적인 미세 조정 없이 자동 구현 가능
한계점:
Planner 모델의 성능에 대한 의존도가 높을 수 있음.
Follower 모델의 규모에 따라 성능 차이가 발생할 수 있음.
제안된 방법의 일반성 및 다양한 작업에 대한 적용 가능성에 대한 추가적인 연구 필요.
실제 응용 분야에서의 성능 평가 및 안정성 검증이 필요.
👍