Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

R1-VL: Learning to Reason with Multimodal Large Language Models via Step-wise Group Relative Policy Optimization

Created by
  • Haebom
Category
Empty

저자

Jingyi Zhang, Jiaxing Huang, Huanjin Yao, Shunyu Liu, Xikun Zhang, Shijian Lu, Dacheng Tao

개요

본 논문은 대규모 언어 모델(MLLM)의 추론 능력 향상을 위해 기존의 지도 학습 방식의 한계를 극복하는 새로운 강화 학습 프레임워크인 Step-wise Group Relative Policy Optimization (StepGRPO)를 제안합니다. StepGRPO는 단계별 보상을 통해 MLLM이 단순히 성공적인 추론 경로를 모방하는 것을 넘어, 잘못된 추론 경로를 이해하고 스스로 추론 능력을 향상시키도록 합니다. 이를 위해 단계별 추론 정확도 보상(StepRAR)과 단계별 추론 타당성 보상(StepRVR)이라는 두 가지 새로운 규칙 기반 보상 메커니즘을 도입하여, 필요한 중간 추론 단계를 포함하는 경로와 논리적으로 일관된 추론 과정을 따르는 경로를 보상합니다. 제안된 StepGRPO를 사용하여 개발된 R1-VL 모델 시리즈는 8개의 벤치마크 실험에서 우수한 단계별 추론 능력을 보였습니다.

시사점, 한계점

시사점:
기존 지도 학습 기반 MLLM 추론 능력 향상 방식의 한계점을 극복하는 새로운 강화 학습 프레임워크 제시
단계별 보상 메커니즘을 통해 MLLM의 추론 과정에 대한 이해도 향상
8개의 벤치마크 실험에서 우수한 성능 검증
단계별 추론 정확도 및 타당성 평가 기법 제시
한계점:
제안된 보상 메커니즘의 규칙 기반 설계가 특정 유형의 추론 문제에 편향될 가능성
StepGRPO의 효율성 및 확장성에 대한 추가적인 연구 필요
다양한 유형의 추론 문제에 대한 일반화 성능 평가 필요
R1-VL 모델의 구체적인 아키텍처 및 학습 과정에 대한 자세한 설명 부족
👍