Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

R-Capsule: Compressing High-Level Plans for Efficient Large Language Model Reasoning

Created by
  • Haebom

저자

Hongyu Shan, Mingyang Song, Chang Dai, Di Liang, Han Chen

개요

Chain-of-Thought (CoT) 프롬프팅은 대규모 언어 모델(LLM)이 단계별 추론을 통해 복잡한 문제를 해결하도록 돕습니다. 그러나 CoT는 과도한 표현으로 인해 지연 시간과 메모리 사용량이 증가하고, 초기 오류가 긴 체인 전체에 전파될 수 있습니다. 본 논문에서는 잠재 추론의 효율성과 명시적 CoT의 투명성을 결합하는 것을 목표로 하는 Reasoning Capsule (R-Capsule) 프레임워크를 제안합니다. 핵심 아이디어는 높은 수준의 계획을 학습된 잠재 토큰의 작은 집합(Reasoning Capsule)으로 압축하는 동시에 실행 단계를 가볍거나 명시적으로 유지하는 것입니다. 이 하이브리드 접근 방식은 Information Bottleneck (IB) 원리에서 영감을 받아, 캡슐이 최소화되면서도 작업에 충분하도록 장려합니다. 효율성을 향상시키기 위해 낮은 용량의 병목 현상을 통해 최소화가 장려됩니다. 답변 정확도를 위한 기본 작업 손실과 원래 텍스트 계획을 충실하게 나타내도록 캡슐을 장려하는 보조 계획 재구성 손실이라는 이중 목표를 통해 충분성이 장려됩니다. 재구성 목표는 잠재 공간을 접지하여 해석 가능성을 개선하고 비정보성 지름길 사용을 줄이는 데 도움이 됩니다. 이 프레임워크는 효율성, 정확성 및 해석 가능성 사이의 균형을 유지하여 복잡한 벤치마크에서 정확도를 유지하거나 향상시키면서 추론의 가시적인 토큰 발자국을 줄입니다.

시사점, 한계점

시사점:
잠재 추론의 효율성과 명시적 CoT의 투명성을 결합.
Reasoning Capsule을 통해 효율성, 정확성 및 해석 가능성 간의 균형 달성.
복잡한 벤치마크에서 정확도를 유지하거나 향상시키면서 추론의 토큰 발자국 감소.
한계점:
논문에 구체적인 한계점 언급 없음. (다만, 잠재 공간 학습에 따른 잠재적인 해석의 어려움 등이 있을 수 있음)
👍