Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Robustness is Important: Limitations of LLMs for Data Fitting

Created by
  • Haebom

저자

Hejia Liu, Mochen Yang, Gediminas Adomavicius

개요

본 논문은 대규모 언어 모델(LLM)을 데이터 적합 및 예측 생성에 사용하는 것의 취약성을 다룹니다. LLM은 다양한 작업에서 경쟁력 있는 예측 성능을 보여주지만, 작업과 무관한 데이터 표현의 변화(예: 변수 이름 변경)에 예측 결과가 크게 좌우되는 취약성을 가지고 있음을 밝힙니다. 이는 in-context learning과 supervised fine-tuning 모두에서, close-weight 및 open-weight LLM 모두에서 나타나는 현상이며, open-weight LLM의 어텐션 메커니즘 분석을 통해 특정 위치의 토큰에 과도한 집중이 발생하는 것을 확인했습니다. 데이터 적합을 위해 특별히 훈련된 TabPFN과 같은 최첨단 모델조차도 이러한 취약성에서 자유롭지 못합니다. 따라서 현재의 LLM은 원칙적인 데이터 적합 도구로 사용하기에는 기본적인 수준의 강건성조차 부족합니다.

시사점, 한계점

시사점: LLM을 데이터 적합에 사용할 때 작업과 무관한 데이터 표현의 변화에 대한 취약성을 인지해야 함을 강조합니다. LLM의 예측 성능에 대한 신뢰도를 높이기 위해서는 이러한 취약성을 해결하는 추가적인 연구가 필요함을 시사합니다. 데이터 표현의 강건성을 고려한 새로운 LLM 설계 및 훈련 방법의 필요성을 제기합니다.
한계점: 본 연구는 특정 LLM과 데이터셋에 대한 실험 결과를 바탕으로 하므로, 모든 LLM과 모든 상황에 일반화될 수 있는지는 추가적인 연구가 필요합니다. 작업과 무관한 변화에 대한 취약성의 근본 원인에 대한 완전한 설명은 제공하지 못합니다. 취약성을 완화하기 위한 구체적인 해결책을 제시하지는 않습니다.
👍