Trade-offs in Large Reasoning Models: An Empirical Analysis of Deliberative and Adaptive Reasoning over Foundational Capabilities
Created by
Haebom
Category
Empty
저자
Weixiang Zhao, Xingyu Sui, Jiahe Guo, Yulin Hu, Yang Deng, Yanyan Zhao, Bing Qin, Wanxiang Che, Tat-Seng Chua, Ting Liu
개요
본 논문은 OpenAI의 o1/o3 및 DeepSeek-R1과 같은 대규모 추론 모델(LRMs)이 인간과 유사한 숙고적 사고와 긴 사고 과정 추론을 통해 특수 추론 작업에서 놀라운 성능을 보이는 최근 발전에 대해 다룹니다. 하지만 DeepSeek, Qwen, LLaMA 등 다양한 모델 계열과 7B에서 671B까지의 크기를 대상으로 한 체계적인 평가를 통해, 이러한 숙고적 추론 능력을 획득하면 유용성 및 무해성의 저하와 함께 추론 비용이 크게 증가하는 등 LRM의 기본 능력이 상당히 저하됨을 밝혔습니다. 중요한 점은 제로-씽킹, 레스-씽킹, 서머리-씽킹과 같은 방식을 사용하는 적응적 추론을 통해 이러한 단점을 효과적으로 완화할 수 있음을 보여줍니다. 경험적 통찰력을 바탕으로 특정 작업 특성에 따라 추론 시간 컴퓨팅을 동적으로 할당할 수 있는 더욱 다재다능한 LRM을 개발해야 할 필요성을 강조합니다.
시사점, 한계점
•
시사점:
◦
숙고적 추론 능력 향상은 LRM의 기본 능력(유용성, 무해성) 저하 및 추론 비용 증가를 초래할 수 있음을 밝힘.
◦
적응적 추론(Zero-Thinking, Less-Thinking, Summary-Thinking)이 LRM의 단점을 완화하는 효과적인 방법임을 제시.
◦
특정 작업 특성에 따라 추론 시간 컴퓨팅을 동적으로 할당하는 다재다능한 LRM 개발의 중요성 강조.
•
한계점:
◦
본 연구에서 제시된 적응적 추론 방법의 일반화 가능성 및 다양한 작업에 대한 적용성에 대한 추가 연구 필요.
◦
다양한 모델 계열과 크기에 대한 평가를 수행했지만, 모든 LRM 아키텍처와 크기를 포괄하지 못할 가능성 존재.