Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ProxySPEX: Inference-Efficient Interpretability via Sparse Feature Interactions in LLMs

Created by
  • Haebom

저자

Landon Butler, Abhineet Agarwal, Justin Singh Kang, Yigit Efe Erginbas, Bin Yu, Kannan Ramchandran

개요

본 논문은 대규모 언어 모델(LLM)의 특징 상호작용을 효율적으로 식별하는 새로운 알고리즘인 ProxySPEX를 제안합니다. 기존의 상호작용 식별 방법들은 특징의 수에 따라 계산량이 기하급수적으로 증가하는 한계가 있었으나, ProxySPEX는 LLM 특징 상호작용의 계층적 구조를 활용하여 이 문제를 해결합니다. ProxySPEX는 먼저 마스크된 LLM 출력에 Gradient Boosted Trees를 적합시킨 후 중요한 상호작용을 추출합니다. 실험 결과, ProxySPEX는 기존 방법보다 20% 향상된 출력 재구성 성능을 보이며, SPEX보다 10배 적은 모델 추론을 필요로 합니다. 또한, CIFAR-10 데이터셋과 질의응답 과제를 통해 데이터 귀속 및 메커니즘 해석 가능성을 향상시키는 것을 보여줍니다.

시사점, 한계점

시사점:
LLM 특징 상호작용의 계층적 구조를 활용하여 기존 방법보다 효율적으로 상호작용을 식별할 수 있음.
기존 방법보다 적은 모델 추론 횟수로 높은 정확도의 출력 재구성 및 특징 선택 가능.
데이터 귀속 및 메커니즘 해석 가능성 향상에 기여.
더욱 공격적인 헤드 가지치기를 가능하게 함.
한계점:
Gradient Boosted Trees에 대한 의존성.
고차원 데이터셋에 대한 일반화 성능에 대한 추가적인 검증 필요.
특정 유형의 LLM에만 적용 가능할 수 있음.
👍