Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Multi-Path Collaborative Reasoning via Reinforcement Learning

Created by
  • Haebom
Category
Empty

저자

Jindi Lv, Yuhao Zhou, Zheng Zhu, Xiaofeng Wang, Guan Huang, Jiancheng Lv

개요

Chain-of-Thought (CoT) 추론은 대규모 언어 모델(LLM)의 문제 해결 능력을 향상시켰지만, 기존 CoT는 디코딩 중 내적 결정론으로 인해 가능한 대안 탐색을 제한한다. 최근 방법들은 소프트 추상 토큰을 생성하여 연속적인 의미 공간에서 추론을 가능하게 하려 시도하지만, 오토회귀 디코딩의 탐욕적인 본질로 인해 대안적 추론 가능성으로부터 모델이 고립되는 문제가 여전하다. 본 연구에서는 추론 과정에 집단적 통찰력을 명시적으로 주입하는 새로운 강화 학습 프레임워크인 Multi-Path Perception Policy Optimization (M3PO)를 제안한다. M3PO는 병렬 정책 롤아웃을 자연스럽게 다양한 추론 소스로 활용하고, 가벼운 협업 메커니즘을 통해 교차 경로 상호 작용을 정책 업데이트에 통합한다. 이를 통해 각 궤적이 동료 피드백을 통해 추론을 개선하여 보다 신뢰할 수 있는 다단계 추론 패턴을 구축한다. 실험 결과 M3PO는 지식 및 추론 집약적 벤치마크에서 최고 성능을 달성했다. M3PO로 훈련된 모델은 해석 가능성과 추론 효율성을 유지하여 강력한 추론을 위한 다중 경로 협업 학습의 가능성을 보여준다.

시사점, 한계점

시사점:
M3PO는 LLM의 추론 능력을 향상시키기 위한 새로운 강화 학습 프레임워크를 제시한다.
병렬 정책 롤아웃과 교차 경로 상호 작용을 통해 다양한 추론 경로를 탐색하고 개선한다.
지식 및 추론 집약적 벤치마크에서 기존 방법보다 우수한 성능을 보인다.
해석 가능성과 추론 효율성을 유지한다.
한계점:
논문에서 구체적인 한계점은 명시적으로 언급되지 않음. (추가 연구 필요)
👍