Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models

Created by
  • Haebom

저자

Tingchen Fu, Jiawei Gu, Yafu Li, Xiaoye Qu, Yu Cheng

개요

본 논문은 대규모 언어 모델(LLM)의 수학적 추론 능력과 지시사항 준수 능력 간의 상충 관계를 탐구하는 연구입니다. 복잡한 수학 문제 해결 능력이 향상된 모델일수록 사용자 지시사항을 따르는 능력이 떨어지는 경향을 보이는 것을 밝히고, 이를 평가하기 위한 새로운 벤치마크인 MathIF를 제시합니다. 특히, 장문의 사고 과정을 이용하거나 강화 학습으로 훈련된 모델에서 이러한 현상이 두드러지며, 생성 길이가 길어질수록 지시사항 준수율이 저하되는 것을 발견했습니다. 간단한 개입을 통해 지시사항 준수율을 향상시킬 수 있지만, 그럴 경우 추론 성능이 저하되는 문제가 발생합니다. 본 연구는 현재 LLM 훈련 방식의 근본적인 한계를 지적하고, 지시사항을 더 잘 인식하는 추론 모델의 필요성을 강조합니다. 코드와 데이터는 공개되어 있습니다.

시사점, 한계점

시사점:
LLM의 추론 능력 향상과 지시사항 준수 능력 간의 상충 관계를 명확히 제시합니다.
수학적 추론 능력 평가를 위한 새로운 벤치마크 MathIF를 제공합니다.
장문 생성 및 강화 학습 기반 모델의 지시사항 준수 문제를 밝힙니다.
현재 LLM 훈련 패러다임의 한계를 보여주고, 지시어 인식 추론 모델 개발의 필요성을 강조합니다.
한계점:
MathIF 벤치마크가 수학적 추론에 특화되어 있어, 다른 영역으로의 일반화 가능성은 추가 연구가 필요합니다.
제시된 간단한 개입이 지시사항 준수율을 부분적으로만 회복시키므로, 더욱 효과적인 해결책이 필요합니다.
연구에서 다룬 개입의 종류와 범위가 제한적일 수 있습니다.
👍