Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Epistemic Diversity and Knowledge Collapse in Large Language Models

Created by
  • Haebom

저자

Dustin Wright, Sarah Masud, Jared Moore, Srishti Yadav, Maria Antoniak, Chan Young Park, Isabelle Augenstein

개요

본 논문은 대규모 언어 모델(LLM)이 생성하는 텍스트의 렉시컬, 의미적, 스타일적 동질성으로 인해 발생하는 지식 붕괴 문제를 다룬다. 기존 연구의 한계를 극복하기 위해, 논문은 LLM 출력에서 실제 세계 주장의 다양성(지식 다양성)을 측정하는 새로운 방법론을 제시하고, 이를 활용하여 광범위한 LLM 지식 붕괴에 대한 실증 연구를 수행한다. 27개의 LLM, 12개국, 155개의 주제, 그리고 실제 사용자 채팅에서 파생된 200개의 프롬프트 변형을 테스트했다. 연구 결과, 최신 모델이 더 다양한 주장을 생성하는 경향이 있지만, 거의 모든 모델이 기본적인 웹 검색보다 지식 다양성이 낮다는 것을 확인했다. 또한, 모델 크기는 지식 다양성에 부정적인 영향을 미치고, 검색 증강 생성(RAG)은 긍정적인 영향을 미치지만 문화적 맥락에 따라 그 효과가 다르다는 것을 발견했다. 마지막으로, 위키피디아와 비교했을 때, 국가별 주장은 현지 언어보다 영어를 더 많이 반영하여 지식 표현의 격차를 보여주었다.

시사점, 한계점

시사점:
LLM의 지식 붕괴 문제를 객관적으로 측정하는 새로운 방법론 제시.
다양한 LLM, 주제, 국가, 프롬프트를 활용한 광범위한 실증 연구.
모델 크기가 지식 다양성에 부정적 영향을 미치고, RAG가 긍정적 영향을 미침을 확인.
국가별 지식 표현에서 영어 편향성을 발견하여 문화적 맥락의 중요성 강조.
한계점:
연구 대상 LLM, 주제, 국가의 제한적 범위.
RAG의 효과가 문화적 맥락에 따라 달라지는 이유에 대한 추가 연구 필요.
지식 다양성 측정 방법론의 추가적인 검증 필요.
특정 지식 표현의 격차(예: 영어 편향성) 해결을 위한 구체적인 방안 제시 부족.
👍