Lost in the Haystack: Smaller Needles are More Difficult for LLMs to Find
Created by
Haebom
저자
Owen Bianchi, Mathew J. Koretsky, Maya Willey, Chelsea X. Alvarado, Tanay Nayak, Adi Asija, Nicole Kuznetsov, Mike A. Nalls, Faraz Faghri, Daniel Khashabi
개요
본 논문은 대규모 언어 모델(LLM)이 방대한 양의 무관한 정보 속에서 관련 정보를 찾아내는 "needle-in-a-haystack" 과제에서 어려움을 겪는 문제를 다룹니다. 기존 연구는 위치 편향과 방해 요소의 양이 모델 성능에 중요한 영향을 미친다는 점을 강조했지만, 관련 정보의 길이(gold context size)의 영향은 거의 연구되지 않았습니다. 본 연구는 다양한 길이의 관련 정보가 LLM의 장문 맥락 질문 응답 과제 성능에 미치는 영향을 체계적으로 분석합니다. 실험 결과, 관련 정보의 길이가 짧을수록 LLM의 성능이 급격히 저하되고 위치 민감도가 증폭되는 것을 확인했습니다. 이러한 현상은 일반 지식, 생물 의학 추론, 수학적 추론 등 세 가지 다양한 분야와 크기와 아키텍처가 다른 7가지 최첨단 LLM에서 일관되게 나타났습니다. 본 연구는 견고하고 맥락을 인식하는 LLM 기반 시스템 설계를 위한 통찰력을 제공합니다.
시사점, 한계점
•
시사점:
◦
관련 정보의 길이가 LLM의 "needle-in-a-haystack" 과제 성능에 큰 영향을 미친다는 것을 밝힘.