Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DCPO: Dynamic Clipping Policy Optimization

Created by
  • Haebom

저자

Shihui Yang, Chengfeng Dou, Peidong Guo, Kai Lu, Qiang Ju, Fei Deng, Rihui Xin

개요

본 논문은 강화 학습을 통해 대규모 언어 모델의 추론 능력을 향상시키는 새로운 프레임워크인 동적 클리핑 정책 최적화(DCPO)를 제안합니다. 기존 방법인 GRPO의 제로 기울기 문제를 해결하기 위해, 토큰별 사전 확률에 기반한 동적 클리핑 전략과 누적 훈련 단계에 걸친 부드러운 이점 표준화 기법을 도입했습니다. DCPO는 네 가지 모델을 기반으로 한 네 가지 벤치마크에서 최첨단 성능을 달성했으며, 특히 AIME24 및 AIME25 벤치마크에서 기존 방법인 GRPO, DAPO, GSPO를 능가하는 결과를 보였습니다. 또한, GRPO에 비해 비영 기울기 비율을 평균 28% 향상시켰고, DAPO보다 훈련 효율을 두 배 높였으며, 토큰 클리핑 비율을 획기적으로 감소시켰습니다.

시사점, 한계점

시사점:
대규모 언어 모델의 강화 학습에서 제로 기울기 문제를 효과적으로 해결하는 새로운 방법 제시
동적 클리핑 전략과 부드러운 이점 표준화 기법을 통해 생성된 데이터를 더 효율적으로 활용
다양한 벤치마크에서 기존 방법들을 능가하는 우수한 성능 달성
훈련 효율 및 토큰 클리핑 비율 개선
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 연구 필요
다양한 모델과 벤치마크에 대한 추가적인 실험 필요
동적 클리핑 전략의 파라미터 조정에 대한 추가적인 연구 필요
👍