[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Concept-Level Explainability for Auditing & Steering LLM Responses

Created by
  • Haebom

저자

Kenza Amara, Rita Sevastjanova, Mennatallah El-Assady

개요

본 논문은 대규모 언어 모델(LLM)의 안전성 및 정렬 문제를 해결하기 위해 개념 수준의 설명 가능성 방법인 ConceptX를 제안한다. 기존의 토큰 단위의 설명 가능성 방법들이 각 토큰의 생성 과정을 개별적으로 설명하는 한계를 극복하고, 프롬프트 내의 의미적으로 풍부한 토큰(개념)을 식별하여 출력의 의미적 유사성에 기반한 중요도를 할당한다. ConceptX는 모델 종류에 관계없이 사용 가능하며, 토큰 교체를 통한 문맥 유지 및 다양한 설명 목표(예: 성별 편향) 지원이 가능하다. 세 가지 LLM에 대한 실험 결과, ConceptX는 토큰 단위 방법인 TokenSHAP보다 신뢰성과 사람의 판단과의 일치도가 더 높았으며, 감정 변화 및 공격 성공률 감소 측면에서도 기존 방법들을 능가하는 성능을 보였다. 프롬프트 엔지니어링이나 자기 설명 방법과 달리, ConceptX는 투명하고 신뢰할 수 있는 대안으로 LLM의 안전성 및 정렬 개선에 기여한다.

시사점, 한계점

시사점:
개념 수준의 설명 가능성을 통해 LLM의 안전성 및 정렬 문제 해결에 새로운 접근 방식을 제시한다.
모델 종류에 관계없이 사용 가능한 모델-애그노스틱 방법으로, 다양한 LLM에 적용 가능성이 높다.
기존 토큰 단위 방법보다 높은 신뢰성과 사람의 판단과의 일치도를 보이며, 감정 조절 및 공격 방어 성능 향상에 기여한다.
프롬프트 수정을 통한 LLM 행동 조절이 가능하여, 재훈련 없이도 안전성 향상을 도모할 수 있다.
한계점:
본 논문에서는 특정 LLM과 특정 작업에 대한 실험 결과만 제시되어, 일반화 가능성에 대한 추가 연구가 필요하다.
"개념"의 정의 및 추출 방법에 대한 명확한 기준이 필요하며, 다양한 개념 표현에 대한 적용 가능성을 추가적으로 검증해야 한다.
실제 LLM 배포 환경에서의 효과 및 안전성에 대한 추가적인 평가가 필요하다.
👍