Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Visual Position Prompt for MLLM based Visual Grounding

Created by
  • Haebom
Category
Empty

저자

Wei Tang, Yanpeng Sun, Qinying Gu, Zechao Li

개요

본 논문은 다중 모드 대규모 언어 모델(MLLM)의 시각적 근거(visual grounding) 성능 향상을 위해 Visual Position Prompt (VPP)를 제안합니다. MLLM이 이미지 내 좌표와 공간 정보를 정확하게 정렬하는 데 어려움을 겪는다는 점에 착안하여, 전역적 VPP와 국소적 VPP라는 두 가지 보완적인 메커니즘을 통해 공간적 단서를 제공합니다. 전역적 VPP는 학습 가능한 축과 같은 임베딩을 이미지에 중첩시켜 구조화된 공간적 단서를 제공하고, 국소적 VPP는 위치 인식 쿼리를 통합하여 객체의 위치를 추정합니다. 또한, 효율적인 모델 학습을 위해 0.6M 개의 고품질 시각적 근거 데이터를 포함하는 VPP-SFT 데이터셋을 새롭게 제시합니다. VPP-LLaVA는 MiniGPT-v2와 같은 다른 MLLM보다 훨씬 적은 훈련 샘플을 사용하면서도 표준 근거 벤치마크에서 최첨단 성능을 달성합니다.

시사점, 한계점

시사점:
VPP를 활용하여 MLLM의 시각적 근거 성능을 향상시키는 새로운 방법 제시.
효율적인 모델 학습을 위한 새로운 고품질 데이터셋 VPP-SFT 제시.
적은 훈련 데이터로도 최첨단 성능 달성.
전역적 및 국소적 VPP의 보완적인 접근 방식을 통해 공간 정보 처리 개선.
한계점:
제시된 VPP-SFT 데이터셋의 크기(0.6M)는 다른 MLLM 훈련에 사용되는 데이터셋(예: MiniGPT-v2의 21M)에 비해 상대적으로 작음.
VPP-LLaVA의 성능이 다른 MLLM과 비교하여 얼마나 일반화될 수 있는지에 대한 추가적인 연구가 필요함.
코드 및 데이터셋의 공개는 논문 수락 후에 이루어짐.
👍