Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DeepVideo-R1: Video Reinforcement Fine-Tuning via Difficulty-aware Regressive GRPO

Created by
  • Haebom

저자

Jinyoung Park, Jeehye Na, Jinyoung Kim, Hyunwoo J. Kim

개요

본 논문은 강화 학습 기반 후속 학습을 통해 대규모 언어 모델(LLM)의 추론 능력을 향상시키는 연구에 대해 다룹니다. 특히, 그룹 기반 정규화 보상을 사용하는 PPO 스타일 강화 학습 알고리즘인 GRPO(Group Relative Policy Optimization)의 효과를 보였으나, 비디오 LLM에 대한 적용은 미흡했습니다. 이에 본 논문에서는 비디오 LLM에 GRPO를 적용하면서 발생하는 두 가지 주요 문제점, 즉 안전장치 의존 및 vanishing advantage 문제를 제기하고, 이를 해결하기 위해 Reg-GRPO(Regressive GRPO)와 난이도 인식 데이터 증강 전략을 사용하여 훈련된 비디오 LLM인 DeepVideo-R1을 제안합니다. Reg-GRPO는 GRPO 목표를 회귀 문제로 재구성하여 이점을 직접 예측함으로써 안전장치를 제거하고 정책 안내를 개선합니다. 또한, 난이도 인식 데이터 증강 전략은 해결 가능한 난이도 수준에서 훈련 샘플을 동적으로 증강하여 다양하고 유익한 보상 신호를 제공합니다. 실험 결과, DeepVideo-R1은 여러 비디오 추론 벤치마크에서 비디오 추론 성능을 크게 향상시켰습니다.

시사점, 한계점

시사점:
비디오 LLM의 추론 능력 향상을 위한 새로운 강화 학습 기반 후속 학습 방법(Reg-GRPO) 제시
안전장치 의존 및 vanishing advantage 문제 해결을 위한 효과적인 전략 제시
난이도 인식 데이터 증강 전략을 통한 훈련 데이터 효율성 증대
다양한 비디오 추론 벤치마크에서 성능 향상을 실험적으로 검증
한계점:
Reg-GRPO와 난이도 인식 데이터 증강 전략의 일반화 성능에 대한 추가적인 연구 필요
다른 유형의 LLM 또는 비디오 데이터에 대한 적용 가능성에 대한 추가적인 연구 필요
구체적인 벤치마크 및 데이터셋에 대한 의존성, 다른 데이터셋에서의 일반화 성능 평가 필요.
👍