Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

PLEX: Perturbation-free Local Explanations for LLM-Based Text Classification

Created by
  • Haebom

저자

Yogachandran Rahulamathavan, Misbah Farooq, Varuna De Silva

개요

본 논문은 대규모 언어 모델(LLM) 기반 텍스트 분류의 해석성을 높이기 위해 새로운 설명 가능한 AI(XAI) 방법인 PLEX(Perturbation-free Local Explanation)를 제안합니다. 기존의 LIME이나 SHAP과 같은 방법들은 계산적으로 비용이 많이 드는 perturbation 기법을 사용하지만, PLEX는 LLM에서 추출한 문맥적 임베딩과 Siamese network를 활용하여 사전 훈련을 통해 효율적인 설명을 제공합니다. 다양한 분류 작업(감정 분석, 가짜 뉴스, 가짜 코로나19 뉴스, 우울증 감지)에서 LIME 및 SHAP과 92% 이상의 높은 일치율을 보이며, 계산 시간 및 오버헤드를 각각 2배 및 4배 감소시키는 효율성을 입증합니다.

시사점, 한계점

시사점:
LLM 기반 텍스트 분류의 해석성을 크게 향상시키는 효율적인 XAI 방법 제시
기존 방법 대비 훨씬 빠른 설명 생성 속도 (계산 시간 및 오버헤드 감소)
LIME 및 SHAP과 유사하거나 그 이상의 성능을 보이는 설명 정확도
다양한 텍스트 분류 작업에 적용 가능성 증명
한계점:
Siamese network 훈련에 필요한 데이터 및 컴퓨팅 자원에 대한 언급 부족. 실제 적용 시 발생할 수 있는 자원 제약에 대한 논의가 필요함.
PLEX의 일반화 성능에 대한 추가적인 연구가 필요함. 특정 데이터셋이나 LLM에 대한 의존성 여부에 대한 검증이 필요함.
4가지 분류 작업만으로는 다양한 종류의 텍스트 분류 작업에 대한 일반화 성능을 충분히 검증했다고 보기 어려움. 더욱 다양한 실험을 통해 일반화 성능을 검증할 필요가 있음.
👍