Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Tiny-R1V: Lightweight Multimodal Unified Reasoning Model via Model Merging

Created by
  • Haebom

저자

Qixiang Yin, Huanjin Yao, Jianghao Chen, Jiaxing Huang, Zhicheng Zhao, Fei Su

개요

본 논문은 다양한 작업에서 뛰어난 능력을 보여준 멀티모달 대규모 언어 모델(MLLM)이 모델 크기, 과도한 사고, 경량 환경에서의 정확도 저하 등의 추론 효율성 측면에서 겪는 문제를 해결하고자 한다. 이를 위해, 더 빠른 추론과 높은 정확도를 달성하는 새로운 경량 3B 모델인 Tiny-R1V를 제안한다. Tiny-R1V는 두 단계 최적화를 통해 멀티모달 추론을 통합하고 더 적은 토큰을 사용한다. 첫 번째 단계에서는 Length-Informed Relative Policy Optimization (LIPO)을 도입하여 각 추론 모델을 훈련시키고, 두 번째 단계에서는 Adaptive Model Merging (AMM)을 통해 여러 전문 모델을 통합한다. 실험 결과는 Tiny-R1V가 수학, 구조화된 데이터, OCR, 일반적인 능력 등 10개의 광범위한 추론 벤치마크에서 우수한 성능을 보여주며, 경량 모델이 다양한 멀티모달 추론 작업에서 뛰어난 성능을 낼 수 있음을 입증한다.

시사점, 한계점

시사점:
경량 MLLM의 추론 능력 향상에 기여.
LIPO를 통한 효율적인 강화 학습 방법 제시.
AMM을 통한 훈련 없는 모델 병합 기술 개발.
다양한 멀티모달 추론 작업에서 우수한 성능 입증.
한계점:
모델 크기가 3B로 제한되어 다른 더 큰 모델과의 비교가 필요할 수 있음.
AMM의 일반화 성능에 대한 추가적인 연구가 필요할 수 있음.
LIPO 및 AMM의 최적 하이퍼파라미터 설정에 대한 상세한 분석이 필요할 수 있음.
👍