Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Atom of Thoughts for Markov LLM Test-Time Scaling

Created by
  • Haebom
Category
Empty

저자

Fengwei Teng, Quan Shi, Zhaoyang Yu, Jiayi Zhang, Chenglin Wu, Yuyu Luo, Zhijiang Guo

개요

본 논문은 대규모 언어 모델(LLM)의 추론 능력을 향상시키기 위해, 기존의 테스트 시점 스케일링 방법의 문제점을 해결하고자 Atom of Thoughts (\our)를 제안합니다. \our는 복잡한 추론을 독립적이고 자기 완결적인 하위 질문으로 분해하여 해결하며, 각 하위 질문은 마르코프 프로세스와 유사한 메모리리스 속성을 가집니다. \our는 질문을 의존성 기반의 방향 비순환 그래프로 분해하고 하위 질문을 수축하는 과정을 반복하여, 원래 문제와 동등한 답을 유지하는 단순화된 질문을 생성합니다. 이러한 분해-수축 과정을 통해 마르코프 추론 프로세스를 형성하고, 기존의 테스트 시점 스케일링 방법에 플러그인 형태로 통합하여 추론 능력을 향상시킵니다. 6개의 벤치마크 실험 결과, \our는 단독 프레임워크 및 플러그인으로 모두 효과적임을 입증했으며, 특히 HotpotQA에서 gpt-4o-mini 모델에 적용 시 80.6%의 F1 점수를 기록하여, o3-mini보다 3.4%, DeepSeek-R1보다 10.6% 높은 성능을 보였습니다.

시사점, 한계점

시사점:
복잡한 추론 문제를 독립적인 하위 질문으로 분해하여 해결하는 새로운 접근 방식 제시.
마르코프 추론 프로세스를 활용하여 효과적인 추론을 수행.
기존의 테스트 시점 스케일링 방법에 플러그인 형태로 통합 가능하여 확장성 높음.
다양한 벤치마크에서 우수한 성능 입증.
한계점:
구체적인 한계점에 대한 언급은 논문 요약에서 직접적으로 제시되지 않음.
👍