Sign In

Unveiling Intrinsic Text Bias in Multimodal Large Language Models through Attention Key-Space Analysis

Created by
  • Haebom
Category
Empty

저자

Xinhan Zheng, Huyu Wu, Xueting Wang, Haiyun Jiang

Multimodal Large Language Models의 텍스트 편향: 내부 구조적 불일치

개요

본 논문은 시각-언어 데이터를 처리할 때 다중 모달 대규모 언어 모델(MLLM)이 텍스트 입력에 대한 선호도를 보이는 현상을 분석합니다. 기존 연구와 달리, 모델의 내부 구조적 문제에서 기인한다고 주장하며, 특히 시각적 키 벡터(Visual Keys)가 언어 전용 사전 훈련을 통해 학습된 텍스트 키 공간과 Out-of-Distribution(OOD) 관계에 있다고 가설을 세웁니다. LLaVA와 Qwen2.5-VL 모델의 키 벡터를 추출하여 t-SNE 및 Jensen-Shannon divergence 방법을 통해 분석한 결과, 시각 및 텍스트 키가 주의 공간 내에서 뚜렷하게 다른 하위 공간을 차지한다는 것을 확인했습니다. 이러한 결과는 텍스트 편향이 외부 데이터 요소뿐만 아니라 어텐션 키 공간 내의 내부적인 불일치에서 발생함을 시사합니다.

시사점, 한계점

시사점:
MLLM의 텍스트 편향 문제를 내부 구조적 관점에서 분석하여 새로운 원인을 제시했습니다.
어텐션 메커니즘 내의 키 공간 불일치를 텍스트 편향의 주요 원인으로 밝혀냈습니다.
LLaVA 및 Qwen2.5-VL 모델의 키 벡터 분석을 통해 가설을 검증했습니다.
한계점:
제시된 가설이 모든 MLLM에 일반화될 수 있는지 추가 연구가 필요합니다.
텍스트 편향 완화를 위한 구체적인 해결책이나 모델 개선 방안에 대한 논의는 부족합니다.
단 두 개의 모델(LLaVA, Qwen2.5-VL)에 대한 분석만으로는 일반적인 결론을 내리기 어려울 수 있습니다.
👍