Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Atom of Thoughts for Markov LLM Test-Time Scaling

Created by
  • Haebom
Category
Empty

저자

Fengwei Teng, Zhaoyang Yu, Quan Shi, Jiayi Zhang, Chenglin Wu, Yuyu Luo

개요

본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 테스트 시간 확장 방법인 Atom of Thoughts(AoT)를 제안한다. 기존 방법들의 한계점인 누적된 과거 정보로 인한 계산 자원 낭비 및 추론 효율 저하 문제를 해결하기 위해, 복잡한 추론 과정을 독립적이고 자기 포함적인 하위 질문(원자 질문)으로 분해하는 접근 방식을 취한다. AoT는 각 질문을 의존성 기반 방향성 비순환 그래프로 분해하고 하위 질문들을 축약하여 원래 문제와 동일한 답을 유지하는 단순화된 질문을 생성하는 반복적인 분해-축약 과정을 통해 마르코프 추론 과정을 형성한다. 이러한 원자 상태는 기존 테스트 시간 확장 방법과 원활하게 통합될 수 있으며, 플러그인 방식으로 추론 능력을 향상시킨다. 여섯 가지 벤치마크 실험 결과, AoT는 독립형 프레임워크 및 플러그인 향상 모두에서 효과적임을 보여주며, 특히 HotpotQA에서 gpt-4o-mini에 적용했을 때 80.6%의 F1 점수를 달성하여 o3-mini보다 3.4%, DeepSeek-R1보다 10.6% 높은 성능을 기록했다.

시사점, 한계점

시사점:
LLM의 추론 능력 향상을 위한 효과적인 테스트 시간 확장 방법 제시
기존 방법의 한계점인 누적된 과거 정보 문제 해결
독립형 프레임워크 및 플러그인으로 활용 가능성 증명
여러 벤치마크에서 우수한 성능 검증 (HotpotQA에서 특히 큰 성능 향상)
오픈소스 코드 공개
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 연구 필요
다양한 LLM 및 벤치마크에 대한 추가적인 실험 필요
원자 질문 분해 및 축약 과정의 최적화 방안에 대한 추가 연구 필요
👍