Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DemoShapley: Valuation of Demonstrations for In-Context Learning

Created by
  • Haebom

저자

Shan Xie, Man Luo, Chadly Daniel Stern, Mengnan Du, Lu Cheng

개요

본 논문은 In-context learning (ICL)을 사용하는 대규모 언어 모델(LLM)의 성능 향상을 위한 새로운 방법론인 DemoShapley와 Beta-DemoShapley를 제안한다. 기존 ICL의 효과는 데모(demonstration)의 선택과 순서에 크게 영향을 받는데, 제안된 방법론은 Data Shapley와 Beta Shapley에서 영감을 받아 각 데모의 영향력을 평가한다. DemoShapley는 다양한 맥락에서 각 예시가 성능에 미치는 영향을 포착하고, Beta-DemoShapley는 Beta 분포를 활용하여 작은 카디널리티에 더 높은 가중치를 부여함으로써 ICL의 프롬프트 길이 및 계산 제약을 고려한다. 실험 결과, 제안된 알고리즘은 양질의 데모를 선택하고 분포 외 작업에 대한 일반화를 향상시켜 모델 성능을 향상시키는 것으로 나타났다. 또한, 노이즈가 포함된 데이터를 식별하고 LLM의 공정성을 증진시켜 다양한 시나리오에서 모델 성능과 강건성을 보장한다.

시사점, 한계점

시사점:
ICL의 데모 선택 및 순서 문제를 효과적으로 해결하는 새로운 방법론 제시
DemoShapley와 Beta-DemoShapley를 통해 LLM의 성능 향상 및 일반화 능력 개선
노이즈 데이터 식별 및 LLM의 공정성 향상을 통한 모델 강건성 확보
다양한 맥락에서 데모의 영향력을 정량적으로 평가 가능
한계점:
제안된 방법론의 계산 비용이 기존 방법보다 높을 수 있음 (특히 Beta-DemoShapley)
실험 결과는 특정 데이터셋과 모델에 국한될 수 있으며, 일반화 가능성에 대한 추가 연구 필요
Beta 분포의 파라미터 설정에 대한 추가적인 연구가 필요할 수 있음.
👍