Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Optimal Transport-Based Token Weighting scheme for Enhanced Preference Optimization

Created by
  • Haebom

저자

Meng Li, Guangda Huzhang, Haibo Zhang, Xiting Wang, Anxiang Zeng

개요

본 논문은 대규모 언어 모델(LLM)의 선호도 정렬을 위한 Direct Preference Optimization (DPO) 방법의 한계점을 해결하기 위해 Optimal Transport (OT) 기반의 토큰 가중치 부여 기법인 OTPO(Optimal Transport-based Preference Optimization)를 제안합니다. 기존 DPO는 응답의 모든 토큰에 동일한 중요도를 부여하지만, 사람은 의미 있는 부분에 집중하기 때문에 비효율적입니다. OTPO는 의미 있는 토큰 쌍을 강조하고 덜 관련된 토큰은 낮추는 context-aware 토큰 가중치 부여 방식을 통해 더욱 대조적인 보상 차이 추정치를 제공합니다. 이를 통해 보상의 안정성을 높이고, 해석력을 향상시키며, 의미 있는 차이에 집중하여 instruction-following 성능을 향상시킵니다. 다양한 설정에서 OTPO의 효과를 실험적으로 검증하였습니다.

시사점, 한계점

시사점:
기존 DPO의 한계점인 모든 토큰에 대한 동일 가중치 부여 문제를 OT 기반 가중치 부여로 해결, LLM의 선호도 정렬 성능 향상.
context-aware 토큰 가중치 부여를 통해 보상 안정성 및 해석력 향상.
의미 있는 차이에 집중하여 instruction-following 성능 개선.
한계점:
OTPO의 성능 향상이 특정 데이터셋이나 과제에 국한될 가능성.
OT 계산의 복잡성으로 인한 계산 비용 증가.
제안된 방법의 일반화 가능성에 대한 추가적인 연구 필요.
👍