Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Unraveling Indirect In-Context Learning Using Influence Functions

Created by
  • Haebom

저자

Hadi Askari, Shivanshu Gupta, Terry Tong, Fei Wang, Anshuman Chhabra, Muhao Chen

개요

본 연구에서는 일반화된 In-Context Learning (ICL)을 위한 새로운 패러다임인 Indirect In-Context Learning을 소개합니다. Indirect ICL에서, 우리는 Mixture of Tasks와 Noisy ICL의 두 가지 현실 세계 시나리오에 맞춰진 데모 선택 전략을 탐구합니다. Influence Functions (IFs)를 이러한 설정에 대한 선택 도구로 체계적으로 평가하여, IFs가 데모 풀 내에서 예제의 정보성을 더 잘 포착할 수 있는 잠재력을 강조합니다. Mixture of Tasks 설정의 경우, MMLU, BigBench, StrategyQA, CommonsenseQA를 포함한 28개의 다양한 작업에서 데모를 추출합니다. BertScore-Recall (BSR)을 IF 대리 모델과 결합하면 성능을 더욱 향상시킬 수 있으며, 전통적인 ICL 메트릭에 비해 3-shot 및 5-shot 설정에서 평균 절대 정확도 향상 0.37% 및 1.45%를 달성합니다. Noisy ICL 설정에서 데모가 잘못 레이블되거나 적대적 노이즈가 있는 시나리오를 조사합니다. 실험 결과, IF 기반 선택기를 사용하여 전통적인 ICL 선택기(BSR 및 Cosine Similarity)의 가중치를 재조정하면 노이즈가 있는 GLUE 벤치마크에서 Cosine Similarity의 경우 평균 2.90%, BSR의 경우 2.94%의 정확도 향상을 보입니다. 적대적 하위 설정의 경우, 백도어 공격 완화를 위해 IF를 사용하여 작업에 구애받지 않는 데모 선택의 유용성을 보여줍니다. 작업 인식 방법과 비교하여 공격 성공률이 32.89% 감소했습니다. 요약하면, 전통적인 ICL을 넘어 일반화되는 데모 선택을 위한 강력한 프레임워크를 제안하고, Indirect ICL에서 IFs의 역할에 대한 귀중한 통찰력을 제공합니다.

시사점, 한계점

시사점:
Influence Functions (IFs)를 활용한 Indirect In-Context Learning (ICL) 패러다임 제시.
Mixture of Tasks 설정에서 BertScore-Recall (BSR)과 IFs 결합을 통해 성능 향상 (최대 1.45% 정확도 향상).
Noisy ICL 설정에서 IFs를 활용하여 기존 ICL 선택기 (BSR, Cosine Similarity)의 정확도 향상 (최대 2.94% 향상).
백도어 공격 완화를 위한 작업 무관 데모 선택에서 IFs의 유용성 입증 (공격 성공률 32.89% 감소).
한계점:
제시된 방법의 일반화 능력에 대한 추가적인 검증 필요.
다양한 종류의 노이즈와 적대적 공격에 대한 평가 필요.
IFs 기반 모델의 계산 비용에 대한 분석 및 개선 필요.
👍