Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Noiser: Bounded Input Perturbations for Attributing Large Language Models

Created by
  • Haebom
Category
Empty

저자

Mohammad Reza Ghasemi Madani, Aryo Pradipta Gema, Gabriele Sarti, Yu Zhao, Pasquale Minervini, Andrea Passerini

개요

본 논문은 대규모 언어 모델(LLM)의 예측 과정을 설명하는 후처리 방식인 특징 귀속(FA) 방법론 중 하나인 Noiser를 제안합니다. Noiser는 각 입력 임베딩에 제한된 잡음을 부여하고, 부분적으로 잡음이 추가된 입력에 대한 모델의 강건성을 측정하여 입력 특징의 중요도를 산출합니다. 또한, 지시된 판정 모델을 사용하여 높은 점수를 받은 토큰이 예측된 출력을 복구하는 정도를 평가하는 응답 가능성 지표를 제안합니다. 6개의 LLM과 3가지 과제에 대한 종합적인 평가를 통해 Noiser가 기존의 기울기 기반, 주의 기반, 섭동 기반 FA 방법보다 충실성과 응답 가능성 측면에서 모두 일관되게 우수함을 보여줍니다.

시사점, 한계점

시사점:
Noiser는 기존 FA 방법들보다 충실성과 응답 가능성이 높은, 강건하고 효과적인 LLM 설명 방법론임을 제시합니다.
제안된 응답 가능성 지표는 FA 결과의 실질적인 유용성을 평가하는 새로운 척도를 제공합니다.
다양한 LLM과 과제에 대한 실험 결과를 통해 Noiser의 일반화 성능을 확인합니다.
한계점:
Noiser의 계산 비용이 기존의 일부 FA 방법보다 높을 수 있습니다. (본 논문에 명시적으로 언급된 내용은 아니지만, 잡음 추가 및 강건성 측정 과정의 계산량을 고려할 때 예상되는 한계점입니다.)
제안된 응답 가능성 지표는 판정 모델의 성능에 의존적이며, 판정 모델의 편향이 결과에 영향을 미칠 수 있습니다.
특정 유형의 LLM이나 과제에 대해서는 일반화 성능이 저하될 가능성이 있습니다. (본 논문에서 제시된 실험 결과의 범위를 벗어나는 경우를 고려한 한계점입니다.)
👍