Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ORION: Teaching Language Models to Reason Efficiently in the Language of Thought

Created by
  • Haebom
Category
Empty

저자

Kumar Tanmay, Kriti Aggarwal, Paul Pu Liang, Subhabrata Mukherjee

개요

본 논문은 대규모 추론 모델(LRMs)의 긴 추론 과정에서 발생하는 높은 지연 시간, 중복성, 비일관성을 해결하기 위해 Mentalese라는 압축된 구조적 토큰을 사용하여 추론하는 프레임워크를 제안한다. SHORTER LENGTH PREFERENCE OPTIMIZATION (SLPO)을 활용하여 정확성을 유지하면서 간결한 솔루션을 장려하며, ORION 모델은 AIME 2024, 2025, MinervaMath, OlympiadBench, Math500, AMC 벤치마크에서 기존 모델 대비 4-16배 적은 토큰, 최대 5배 낮은 추론 지연 시간, 7-9배 감소된 훈련 비용을 달성하면서 90-98%의 정확도를 유지한다. 또한, ORION은 Claude 및 ChatGPT-4o보다 최대 5% 높은 정확도를 보이며 2배 압축을 달성한다.

시사점, 한계점

시사점:
Mentalese 스타일의 압축된 추론은 인간과 유사한 인지 효율성을 제공한다.
실시간, 비용 효율적인 추론을 가능하게 하며, 정확성을 유지한다.
SLPO를 통해 정확성을 유지하면서 간결한 솔루션을 장려하여 효율성을 향상시킨다.
ORION 모델은 다양한 벤치마크에서 높은 성능을 보이며 기존 모델을 능가한다.
한계점:
논문 자체에서 명시된 한계점은 없음. (요약본에서 확인된 정보 기준)
👍