Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Flow-GRPO: Training Flow Matching Models via Online RL

Created by
  • Haebom

저자

Jie Liu, Gongye Liu, Jiajun Liang, Yangguang Li, Jiaheng Liu, Xintao Wang, Pengfei Wan, Di Zhang, Wanli Ouyang

개요

본 논문은 흐름 일치 모델에 온라인 강화 학습(RL)을 통합한 최초의 방법인 Flow-GRPO를 제안합니다. 핵심 전략은 두 가지로, 첫째, 결정론적 상미분 방정식(ODE)을 모든 시간 단계에서 원래 모델의 주변 분포와 일치하는 등가의 확률 미분 방정식(SDE)로 변환하여 RL 탐색을 위한 통계적 샘플링을 가능하게 하는 ODE-to-SDE 변환입니다. 둘째, 학습 탈잡음 단계를 줄이면서 원래 추론 시간 단계 수를 유지하여 성능 저하 없이 샘플링 효율을 크게 향상시키는 탈잡음 감소 전략입니다. 실험적으로 Flow-GRPO는 여러 텍스트-이미지 작업에서 효과적이며, 복잡한 구성에서 RL로 조정된 SD3.5는 거의 완벽한 개체 수, 공간 관계 및 세분화된 속성을 생성하여 GenEval 정확도를 63%에서 95%로, 시각적 텍스트 렌더링 정확도를 59%에서 92%로 크게 향상시킵니다. 또한 인간 선호도 정렬에서 상당한 이득을 얻었으며, 보상 해킹이 거의 발생하지 않았다는 점이 주목할 만합니다.

시사점, 한계점

시사점:
흐름 일치 모델에 온라인 강화 학습을 통합하여 텍스트-이미지 생성 성능을 크게 향상시켰습니다.
ODE-to-SDE 변환과 탈잡음 감소 전략을 통해 샘플링 효율을 높이고 성능 저하를 방지했습니다.
복잡한 구성 및 시각적 텍스트 렌더링 작업에서 GenEval 및 인간 선호도 평가 모두에서 상당한 성능 향상을 보였습니다.
보상 해킹이 거의 발생하지 않아 이미지 품질이나 다양성 저하 없이 성능 향상을 이루었습니다.
한계점:
본 논문에서 제시된 방법의 일반화 성능에 대한 추가적인 연구가 필요합니다.
다양한 텍스트-이미지 모델 및 작업에 대한 광범위한 실험이 필요합니다.
ODE-to-SDE 변환 및 탈잡음 감소 전략의 최적화 파라미터에 대한 추가적인 연구가 필요할 수 있습니다.
👍