Xiang Fei, Siqi Wang, Shu Wei, Yuxiang Nie, Wei Shi, Hao Feng, Chao Feng, Can Huang
개요
본 논문은 기존 언어 모델 학습이 종결 토큰(</s>)에서 학습을 종료하는 한계를 극복하기 위해, 모델 출력 완료 후의 시퀀스 공간을 활용하는 새로운 학습 프레임워크인 Post-Completion Learning (PCL)을 제안합니다. PCL은 모델이 출력 완료 후에도 자체 평가 및 보상 예측을 계속 생성하여 추론 능력과 자기 평가 능력을 향상시키는 동시에, 완료 지점에서 중지하여 효율적인 추론을 유지합니다. 이는 모델이 보상 규칙에 따라 출력 내용을 평가하고, 점수를 보상 함수와 정렬하여 감독하는 화이트박스 강화 학습 방법을 통해 구현됩니다. 추론 및 평가 능력을 모두 최적화하기 위해 이중 트랙 SFT를 구현하고, 다목적 하이브리드 최적화를 달성하기 위해 RL 학습과 혼합합니다. 다양한 데이터셋과 모델에 대한 실험 결과는 기존 SFT 및 RL 방법에 비해 일관된 성능 향상을 보여줍니다.