Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Boundary-Guided Policy Optimization for Memory-efficient RL of Diffusion Large Language Models

Created by
  • Haebom

저자

Nianyi Lin, Jiajie Zhang, Lei Hou, Juanzi Li

개요

확률적 언어 모델(dLLM)에 강화 학습(RL)을 적용할 때 발생하는 어려움은 RL 목적에 필수적인 가능도 함수(likelihood function)의 계산 불가능성이다. 기존 방법은 증거 하한(ELBO)을 통해 가능도를 근사하지만, 각 훈련 단계에서 상당한 메모리 오버헤드가 발생한다. 본 논문은 메모리 효율적인 RL 알고리즘인 Boundary-Guided Policy Optimization (BGPO)을 제안한다. BGPO는 ELBO 기반 목적 함수의 특별히 구성된 하한을 최대화하며, 선형성과 등가성이라는 두 가지 주요 속성을 충족한다. 실험 결과, BGPO는 수학 문제 풀이, 코드 생성 및 계획 과제에서 이전 RL 알고리즘보다 뛰어난 성능을 보였다.

시사점, 한계점

시사점:
메모리 효율적인 RL 알고리즘 제안 (BGPO)
dLLM에 RL을 적용할 때 발생하는 메모리 문제를 해결
수학 문제 풀이, 코드 생성, 계획 과제에서 기존 방법보다 우수한 성능 달성
대규모 MC 샘플 크기를 사용하여 정확한 가능도 근사 가능
한계점:
논문에서 구체적인 한계점은 명시되지 않음 (단, dLLM에 특화된 알고리즘이므로 다른 분야로의 일반화에 대한 한계는 존재할 수 있음).
👍