[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

QuestA: Expanding Reasoning Capacity in LLMs via Question Augmentation

Created by
  • Haebom

저자

Jiazheng Li, Hong Lu, Kaiyue Wen, Zaiwen Yang, Jiaxuan Gao, Hongzhou Lin, Yi Wu, Jingzhao Zhang

개요

본 논문은 강화 학습(RL)을 사용하여 대규모 언어 추론 모델(LLM)의 다단계 추론 능력을 향상시키는 데 있어 기존 RL의 한계를 지적하고, 이를 해결하기 위한 새로운 방법인 질문 증강(QuestA)을 제안합니다. QuestA는 RL 학습 과정 중 부분적인 해결책을 추가하여 문제의 난이도를 낮추고 더욱 유익한 학습 신호를 제공합니다. 수학 추론 과제에 대한 RL 학습 중 QuestA를 적용한 결과, Pass@1 및 Pass@k 성능이 향상되었으며, 특히 기존 RL이 어려움을 겪는 문제에서 효과가 컸습니다. DeepScaleR 및 OpenMath Nemotron과 같은 강력한 오픈소스 모델의 추론 능력을 더욱 향상시켜 AIME24, AIME25, HMMT25 벤치마크에서 새로운 최첨단 결과(각각 67.1%, 59.5%, 35.5%)를 달성했습니다. 또한, QuestA가 샘플 효율성을 향상시킨다는 이론적 설명을 제공하여 RL을 통한 추론 능력 확장을 위한 실용적이고 일반화 가능한 방법을 제시합니다.

시사점, 한계점

시사점:
강화 학습 기반 LLM의 다단계 추론 성능 향상에 효과적인 질문 증강(QuestA) 전략 제시.
기존 RL의 한계를 극복하고, 특히 어려운 문제에 대한 성능 개선에 기여.
AIME24, AIME25, HMMT25 벤치마크에서 새로운 최첨단 성능 달성.
샘플 효율성 향상을 통한 효율적인 학습 가능성 제시.
RL 기반 LLM의 추론 능력 확장을 위한 실용적이고 일반화 가능한 방법 제공.
한계점:
제시된 방법의 일반화 가능성에 대한 추가적인 실험 및 분석 필요. (본문에서는 일반화 가능성을 언급하지만, 구체적인 한계는 제시되지 않음)
다른 유형의 추론 문제에 대한 적용 가능성 및 성능 평가 필요.
QuestA의 매개변수 조정 및 최적화에 대한 상세한 분석 부족.
👍