Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

PruneCD: Contrasting Pruned Self Model to Improve Decoding Factuality

Created by
  • Haebom

저자

Byeongho Yu, Changhun Lee, Jungyu Jin, Eunhyeok Park

개요

본 논문은 대규모 언어 모델(LLM)의 환각 문제를 완화하기 위해, 기존의 조기 종료 logits을 이용한 대조 학습 방식(DoLa)의 한계를 지적하고, 새로운 대조적 디코딩 방법인 PruneCD를 제안합니다. DoLa는 조기 종료 logits이 낮은 크기와 정보 부족으로 인해 효과적인 대조 학습을 수행하지 못하는 문제점을 가지고 있습니다. PruneCD는 계층 가지치기를 통해 amateur model을 구성하여 더욱 정보가 풍부하고 정렬된 logits을 생성함으로써, 대조적 디코딩의 효율성을 높입니다. 실험 결과, PruneCD는 추론 오버헤드를 최소화하면서 사실성을 향상시키는 효과적인 방법임을 보여줍니다.

시사점, 한계점

시사점:
LLM의 환각 문제 완화를 위한 효과적이고 실용적인 방법 제시
계층 가지치기를 통한 더욱 정보 풍부한 logits 생성
최소한의 추론 오버헤드로 사실성 향상
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 연구 필요
다양한 LLM 아키텍처 및 크기에 대한 실험 결과 제시 필요
가지치기 전략의 최적화에 대한 추가 연구 필요
👍