[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

When Seeing Overrides Knowing: Disentangling Knowledge Conflicts in Vision-Language Models

Created by
  • Haebom

저자

Francesco Ortu, Zhijing Jin, Diego Doimo, Alberto Cazzaniga

개요

본 논문은 시각-언어 모델(VLMs)이 다양한 지식원을 활용하여 복잡한 작업을 수행하는 과정에서 내부 매개변수 지식과 외부 정보 간의 충돌(knowledge conflicts)을 겪는 현상에 대해 다룹니다. 이러한 충돌은 환각(hallucinations) 및 신뢰할 수 없는 응답으로 이어질 수 있지만, 그 작동 메커니즘은 아직 알려져 있지 않습니다. 논문에서는 의도적으로 내부 상식 지식과 모순되는 다중 모달 반실증적 질의(multimodal counterfactual queries) 데이터셋을 도입하여 VLMs가 교차 모드 충돌을 해결하는 메커니즘을 분석합니다. 로짓 검사(logit inspection)를 통해 충돌을 제어하는 소수의 헤드(heads)를 찾아내고, 이러한 헤드를 수정하여 모델이 내부 지식 또는 시각적 입력에 따라 결과를 생성하도록 유도할 수 있음을 보여줍니다. 마지막으로, 이러한 헤드의 어텐션(attention)이 시각적 무효화(visual overrides)를 일으키는 국부적인 영역을 정확하게 찾아내며, 기울기 기반 속성(gradient-based attribution)보다 정밀도가 높음을 보여줍니다.

시사점, 한계점

시사점:
VLMs의 지식 충돌 해결 메커니즘에 대한 새로운 이해를 제공합니다.
로짓 검사를 통해 충돌을 제어하는 특정 헤드를 식별하는 방법을 제시합니다.
해당 헤드 조작을 통해 모델의 출력을 제어할 수 있음을 보여줍니다.
어텐션 메커니즘 분석을 통해 시각적 정보가 모델 출력에 영향을 미치는 과정을 명확히 합니다.
기울기 기반 속성보다 정밀한 시각적 영역 국재화 방법을 제시합니다.
한계점:
제시된 방법이 모든 VLMs 또는 모든 유형의 지식 충돌에 적용 가능한지에 대한 추가 연구가 필요합니다.
다중 모달 반실증적 질의 데이터셋의 일반화 성능에 대한 검증이 필요합니다.
로짓 검사 및 헤드 조작의 해석 가능성에 대한 추가적인 분석이 필요합니다.
특정 헤드에 대한 조작이 모델의 다른 부분에 미치는 영향에 대한 심층적인 연구가 필요합니다.
👍