Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Integration of Explainable AI Techniques with Large Language Models for Enhanced Interpretability for Sentiment Analysis

Created by
  • Haebom
Category
Empty

저자

Thivya Thogesan, Anupiya Nugaliyadde, Kok Wai Wong

개요

본 논문은 대규모 언어 모델(LLM) 기반 감정 분석의 해석성 문제를 해결하기 위해, SHAP(Shapley Additive Explanations) 기법을 활용하여 LLM을 embedding layer, encoder, decoder, attention layer 등의 구성 요소로 분해하여 계층별 감정 예측 과정을 설명하는 방법을 제시합니다. Stanford Sentiment Treebank (SST-2) 데이터셋을 사용하여 실험을 진행, 기존의 전체 모델 해석 기법보다 향상된 성능을 보이며, 특정 토큰이 각 계층에 미치는 영향을 명확히 분석하여 LLM의 감정 분류 과정에 대한 이해도를 높였습니다. 이를 통해 중요한 응용 분야에서 LLM 기반 감정 분석의 신뢰성과 투명성을 향상시킬 수 있음을 시사합니다.

시사점, 한계점

시사점:
LLM 기반 감정 분석의 해석성 향상에 기여
계층별 SHAP 분석을 통해 감정 예측 과정에 대한 이해 증진
기존의 전체 모델 해석 기법보다 향상된 성능
중요 응용 분야에서 LLM 기반 감정 분석의 신뢰성 및 투명성 제고 가능성 제시
한계점:
제시된 방법의 일반화 가능성에 대한 추가 연구 필요
다른 LLM 아키텍처나 감정 분석 데이터셋에 대한 적용성 검증 필요
계층별 SHAP 분석의 계산 비용 및 복잡성에 대한 고려 필요
👍