Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Fast Training Dataset Attribution via In-Context Learning

Created by
  • Haebom
Category
Empty

저자

Milad Fotouhi, Mohammad Taha Bahadori, Oluwaseyi Feyisetan, Payman Arabshahi, David Heckerman

개요

본 논문은 지시어 미세 조정된 대규모 언어 모델(LLM) 출력에서 훈련 데이터의 기여도를 추정하기 위해 문맥 내 학습과 프롬프트 엔지니어링을 활용하는 방법을 연구합니다. 두 가지 새로운 접근 방식을 제안하는데, 첫째는 문맥 제공 유무에 따른 LLM 출력의 차이를 측정하는 유사성 기반 접근 방식이고, 둘째는 데이터 기여도 점수 식별 문제를 행렬 분해 작업으로 구성하는 혼합 분포 모델 접근 방식입니다. 실험적 비교를 통해 혼합 모델 접근 방식이 문맥 내 학습에서 검색 노이즈에 더 강건하며, 데이터 기여도를 더 안정적으로 추정할 수 있음을 보여줍니다.

시사점, 한계점

시사점:
문맥 내 학습과 프롬프트 엔지니어링을 통해 LLM 출력에 대한 훈련 데이터의 기여도를 정량적으로 추정하는 새로운 방법 제시
혼합 분포 모델 접근 방식이 검색 노이즈에 강건하여 더 신뢰할 수 있는 기여도 추정 제공
LLM의 투명성 및 해석성 향상에 기여
한계점:
제안된 방법의 성능은 사용된 LLM과 데이터셋에 따라 달라질 수 있음
혼합 분포 모델의 매개변수 설정 및 최적화 과정이 복잡할 수 있음
실제 세계의 복잡한 데이터에 대한 일반화 성능에 대한 추가 연구 필요
👍