Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Aligning Large Language Models to Follow Instructions and Hallucinate Less via Effective Data Filtering

Created by
  • Haebom

저자

Shuzheng Si, Haozhe Zhao, Gang Chen, Cheng Gao, Yuzhuo Bai, Zhitong Wang, Kaikai An, Kangyang Luo, Chen Qian, Fanchao Qi, Baobao Chang, Maosong Sun

개요

본 논문은 지시어 미세 조정 단계에서 LLM이 익숙하지 않은 지식을 포함하는 데이터로 학습할 경우 환각 현상이 발생하는 문제를 해결하기 위해 NOVA라는 새로운 프레임워크를 제시합니다. NOVA는 LLM의 학습된 지식과 잘 일치하는 고품질 데이터를 식별하여 환각 현상을 줄이는 데 중점을 둡니다. 내부 일관성 탐색(ICP)과 의미적 등가 식별(SEI)을 통해 LLM이 지시어 데이터에 얼마나 익숙한지를 측정합니다. ICP는 여러 번 자체 생성된 응답 간의 일관성을 계산하여 LLM의 지시어 이해도를 평가하고, SEI는 제안된 의미 클러스터링과 투표 전략을 사용하여 생성된 응답과 목표 응답을 비교하여 LLM의 목표 응답 친숙도를 평가합니다. 마지막으로, 선택된 샘플의 품질을 보장하기 위해 친숙함 이상의 특성을 고려하는 전문가 정렬 보상 모델을 도입합니다. 데이터 품질을 고려하고 익숙하지 않은 데이터를 피함으로써 선택된 데이터를 활용하여 LLM이 지시어를 따르고 환각 현상을 줄이도록 효과적으로 정렬할 수 있습니다.

시사점, 한계점

시사점:
LLM의 환각 현상 감소를 위한 새로운 프레임워크 NOVA 제시
ICP와 SEI를 통한 LLM의 데이터 친숙도 측정 및 고품질 데이터 선별 가능
전문가 정렬 보상 모델을 통한 데이터 품질 향상
지시어 따르는 LLM 성능 향상에 기여
한계점:
제안된 프레임워크의 성능은 전문가 정렬 보상 모델의 질에 의존적일 수 있음.
ICP와 SEI의 계산 비용이 클 수 있음.
다양한 종류의 환각 현상에 대한 일반화 성능이 검증되어야 함.
실제 대규모 데이터셋에서의 효과적인 적용 가능성에 대한 추가 연구 필요.
👍