Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SSFO: Self-Supervised Faithfulness Optimization for Retrieval-Augmented Generation

Created by
  • Haebom

저자

Xiaqiang Tang, Yi Wang, Keyu Hu, Rui Xu, Chuang Li, Weigao Sun, Jian Li, Sihong Xie

개요

Retrieval-Augmented Generation (RAG) 시스템에서 모델의 환각 현상(hallucination)을 해결하기 위해, Self-Supervised Faithfulness Optimization (SSFO)를 제안. SSFO는 컨텍스트 유무에 따른 모델 출력 간의 대비를 통해 선호도 데이터 쌍을 구축하고, Direct Preference Optimization (DPO)를 사용하여 레이블 비용이나 추가적인 추론 부담 없이 모델의 정확성을 향상시킴. SSFO는 확률 질량을 컨텍스트에 정렬된 토큰으로 이전하는 "likelihood displacement" 현상을 활용하며, 이를 기반으로 개선된 DPO 손실 함수를 제안. 여러 데이터셋에서 기존 방법들을 능가하는 SOTA 성능을 달성했으며, 다국어 환경에서의 일반화 및 일반적인 지시 따르기 능력 보존.

시사점, 한계점

시사점:
RAG 시스템의 환각 현상을 해결하기 위한 새로운 접근 방식 제시.
자기 지도 학습(self-supervised) 방식을 통해 레이블링 비용 없이 모델의 정확성을 향상.
DPO를 활용하여 추가적인 추론 부담 없이 모델을 정렬.
"likelihood displacement" 현상을 활용하여 모델의 정확성을 향상시키는 새로운 메커니즘 제안.
다양한 데이터셋에서 SOTA 성능 달성 및 다국어 환경에서의 일반화 능력 입증.
한계점:
논문에서 구체적인 한계점에 대한 언급은 없음.
👍