Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Identifying Multi-modal Knowledge Neurons in Pretrained Transformers via Two-stage Filtering

Created by
  • Haebom

저자

Yugen Sato, Tomohiro Takagi

개요

본 논문은 Transformer 기반 다중 모달 대규모 언어 모델(MLLM)인 MiniGPT-4를 사용하여 특정 지식과 관련된 뉴런을 식별하는 방법을 제안합니다. 이 방법은 inpainting을 이용한 활성화 차이 필터링과 GradCAM을 이용한 기울기 기반 필터링의 두 단계로 구성됩니다. MS COCO 2017 데이터셋을 이용한 이미지 캡션 생성 작업에 대한 실험 결과, BLEU, ROUGE, BERTScore 등의 정량적 평가와 활성화 히트맵을 이용한 정성적 평가를 통해 기존 방법보다 더 높은 정확도로 지식을 찾을 수 있음을 보여줍니다. 이는 MLLM의 지식 시각화 및 설명 가능성에 기여하며, 향후 지식 편집 및 제어의 가능성을 제시합니다.

시사점, 한계점

시사점:
MLLM 내 지식의 위치를 식별하는 새로운 방법 제시
기존 방법보다 높은 정확도로 지식 뉴런 식별
MLLM의 설명 가능성 향상 및 시각화 가능성 제시
향후 지식 편집 및 제어 연구에 대한 가능성 제시
한계점:
MiniGPT-4 모델에 특화된 방법으로 다른 MLLM에 대한 일반화 가능성은 추가 연구 필요
제시된 방법의 정확도 향상을 위한 추가적인 연구 필요
평가 지표의 한계로 인해, 지식 식별의 완벽한 정확성을 보장할 수 없음
단순히 지식의 위치를 식별하는 것 이상의 심층적인 지식 이해 및 해석에 대한 추가 연구 필요
👍