Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Line of Duty: Evaluating LLM Self-Knowledge via Consistency in Feasibility Boundaries

Created by
  • Haebom
Category
Empty

저자

Sahil Kale, Vijaykant Nadadur

개요

본 논문은 거대 언어 모델(LLM)의 자기 지식(self-knowledge)에 대한 기존 연구의 한계를 지적하며, LLM이 스스로 "모르겠다"라고 말할 수 있는 능력에 초점을 맞춥니다. 기존 연구는 주로 인간이 정의한 실행 가능성의 개념에 국한되었지만, 본 연구는 LLM이 답변할 수 없는 이유와 자기 지식의 부족한 유형에 대한 연구를 수행하지 못했습니다. 본 연구는 LLM 스스로 실행 가능성의 경계를 설정하도록 허용하는 새로운 방법론을 통해 LLM의 자기 지식의 다양한 유형에 대한 통찰력을 얻고자 합니다. GPT-4o 및 Mistral Large와 같은 최첨단 모델조차도 자체 기능에 대해 80% 이상 확신하지 못한다는 사실을 발견하여 응답의 신뢰성 부족을 강조합니다. LLM의 신뢰도 균형 분석을 통해 모델이 작업 범주에 따라 과신과 보수주의 사이를 오가며, 가장 중요한 자기 지식 약점은 시간적 인식과 문맥 이해에 있다는 것을 밝힙니다. 문맥 이해의 어려움은 모델이 작동 경계에 의문을 품게 하여 LLM의 자기 지식 내에서 상당한 혼란을 야기합니다. 코드와 결과는 공개적으로 공유됩니다.

시사점, 한계점

시사점:
LLM의 자기 지식에 대한 새로운 평가 방법론 제시
최첨단 LLM조차도 자체 기능에 대한 확신이 부족함을 밝힘
LLM의 과신과 보수주의 사이의 신뢰도 불균형을 확인
LLM의 자기 지식 약점이 시간적 인식 및 문맥 이해에 있음을 제시
LLM의 자기 지식 연구에 대한 새로운 방향 제시
한계점:
제시된 방법론의 일반화 가능성에 대한 추가 연구 필요
다양한 LLM 아키텍처와 크기에 대한 추가 실험 필요
LLM의 자기 지식 향상을 위한 구체적인 방안 제시 부족
👍