Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Rethinking Visual Information Processing in Multimodal LLMs

Created by
  • Haebom
Category
Empty

저자

Dongwan Kim, Viresh Ranjan, Takashi Nagata, Arnab Dhua, Amit Kumar K C

개요

본 논문은 LLaVA 아키텍처의 한계점을 극복하기 위해, LLM을 언어 모델뿐만 아니라 강력한 시각 인코더로 활용하는 LLaViT (Large Language Models as extended Vision Transformers)를 제시합니다. LLaViT는 시각 모달리티를 위한 별도의 QKV 투영 학습, 시각 토큰에 대한 양방향 어텐션, 전역 및 지역 시각 표현 통합을 통해 LLM을 확장하여 시각-언어 모델링을 개선합니다. 다양한 LLM에 대한 광범위한 실험을 통해 LLaViT가 LLaVA를 능가하며, 더 큰 파라미터 수를 가진 모델보다 성능이 우수함을 입증합니다.

시사점, 한계점

시사점:
LLM을 시각 인코더로 활용하는 새로운 접근 방식 제시.
기존 LLaVA 아키텍처의 성능을 효과적으로 개선.
다양한 벤치마크에서 우수한 성능을 보임.
모델 효율성 측면에서도 긍정적인 결과 도출.
한계점:
논문에서 구체적인 한계점에 대한 언급은 없음.
👍