Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Listen to the Context: Towards Faithful Large Language Models for Retrieval Augmented Generation on Climate Questions

Created by
  • Haebom

저자

David Thulke, Jakob Kemmler, Christian Dugast, Hermann Ney

개요

본 논문은 검색 증강 생성(RAG)을 사용하는 대규모 언어 모델(LLM)이 기후 관련 장문의 기술 문서 접근성을 높여 연구자, 정책 입안자 및 일반 대중에게 귀중한 지식을 제공할 수 있는 잠재력을 지적합니다. 이러한 접근 방식은 검색된 구절을 추가적인 맥락으로 사용하여 사실적 환각을 완화하는 데 도움이 될 수 있지만, 모델의 출력이 이러한 구절에 충실한지 여부에 따라 효과가 달라집니다. 따라서 본 논문은 이러한 설정에서 다양한 모델의 충실성을 자동으로 평가하는 방법을 탐구합니다. 특히 기후 과학에 특화된 대규모 언어 모델인 ClimateGPT에 초점을 맞춰, 지시어 미세 조정의 어떤 요소가 모델의 충실성에 영향을 미치는지 조사합니다. 모델의 훈련 데이터에서 충실하지 않은 하위 집합을 제외함으로써, 본 논문은 ClimateGPT Faithful+를 개발합니다. 자동 측정 기준에 따르면, ClimateGPT Faithful+는 지원되는 원자적 주장에서 충실성을 30%에서 57%로 향상시킵니다.

시사점, 한계점

시사점: 검색 증강 생성 모델의 충실성 자동 평가 방법 제시 및 ClimateGPT Faithful+ 모델을 통해 충실성 향상 가능성을 입증. 기후 과학 분야에서 LLM의 신뢰성 향상에 기여.
한계점: 제시된 자동 측정 기준의 일반화 가능성 및 한계. ClimateGPT Faithful+의 성능 향상이 다른 LLM 및 다른 도메인에도 적용 가능한지 추가 연구 필요. 충실성 평가의 주관성 및 원자적 주장의 정의에 대한 명확성 부족 가능성.
👍