Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Clip Your Sequences Fairly: Enforcing Length Fairness for Sequence-Level RL

Created by
  • Haebom

저자

Hanyi Mao, Quanjia Xiao, Lei Pang, Haixiao Liu

개요

본 논문은 대규모 언어 모델(LLM)을 위한 시퀀스 수준 강화 학습 방법인 FSPO(Fair Sequence Policy Optimization)를 제안합니다. FSPO는 중요도 샘플링(IS) 가중치에 길이 공정한 클리핑을 적용하여, 기존 PPO/GRPO 방식의 클리핑이 시퀀스에 적용될 때 짧은 응답과 긴 응답의 가중치를 체계적으로 재조정하여 최적화 방향을 왜곡하는 문제를 해결합니다. FSPO는 시퀀스 로그-IS 비율을 $\sqrt{L}$에 비례하는 밴드로 클리핑하는 간단한 방법을 제시합니다. 이론적으로는 길이 재가중 오류(LRE)를 통해 길이 공정성을 공식화하고, 작은 LRE가 클리핑된 업데이트와 실제 업데이트 사이의 코사인 방향 보장을 제공함을 증명합니다. 실험적으로 FSPO는 길이 구간에 걸쳐 클리핑 비율을 평평하게 하고, 훈련을 안정화하며, Qwen3-8B-Base 모델에 대한 여러 평가 데이터 세트에서 모든 기준 모델보다 성능이 우수함을 보여줍니다.

시사점, 한계점

시사점:
시퀀스 길이에 따른 가중치 왜곡 문제를 해결하는 새로운 강화 학습 방법 FSPO 제안.
$\sqrt{L}$ 스케일링을 통한 길이 공정한 클리핑 기법의 효과성 입증.
LRE를 이용한 이론적 분석을 통해 방법의 타당성을 뒷받침.
다양한 평가 데이터셋에서 기존 방법 대비 성능 향상을 실험적으로 검증.
LLM 훈련의 안정성 향상에 기여.
한계점:
제안된 방법의 효과는 특정 LLM(Qwen3-8B-Base)과 데이터셋에 국한될 가능성 존재.
다른 종류의 LLM이나 더 큰 규모의 모델에 적용했을 때의 일반화 성능은 추가 연구가 필요.
$\sqrt{L}$ 스케일링의 최적값은 모델과 데이터셋에 따라 달라질 수 있음.
LRE 이외의 다른 지표를 통해 길이 공정성을 평가할 필요성.
👍