Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

MRAG-Bench: Vision-Centric Evaluation for Retrieval-Augmented Multimodal Models

Created by
  • Haebom
Category
Empty

저자

Wenbo Hu, Jia-Chen Gu, Zi-Yi Dou, Mohsen Fayyaz, Pan Lu, Kai-Wei Chang, Nanyun Peng

개요

본 논문은 기존의 다중 모달 검색 벤치마크가 주로 외부 텍스트 지식을 활용한 질문 응답 능력 평가에 초점을 맞춘 것과 달리, 시각 정보 검색이 텍스트 데이터보다 유용하거나 접근이 용이한 상황을 고려하여 새로운 벤치마크 MRAG-Bench를 제시합니다. MRAG-Bench는 다양한 시각적 관점에서 더 많은 이미지를 제공하는 등 시각적으로 보강된 지식이 텍스트 지식보다 우수한 9가지 시나리오를 체계적으로 식별하고 분류하여 16,130개의 이미지와 1,353개의 사람이 주석을 단 객관식 질문으로 구성됩니다. 이를 통해 10개의 오픈소스 및 4개의 독점적 대규모 비전-언어 모델(LVLMs)을 평가하고, 모든 LVLMs가 텍스트 지식보다 이미지로 보강될 때 더 큰 성능 향상을 보임을 확인하여 MRAG-Bench가 시각 중심적임을 입증합니다. 또한, 최고 성능 모델인 GPT-4o조차 정답 정보를 활용하여 5.82%의 성능 향상만을 보이는 반면, 사람 참가자는 33.16%의 향상을 보여, 검색 기반 LVLMs의 효율적인 시각 지식 활용 능력 향상의 중요성을 강조합니다.

시사점, 한계점

시사점:
시각 정보 검색이 더 유용한 상황을 중점적으로 평가하는 새로운 다중 모달 검색 벤치마크 MRAG-Bench를 제시.
LVLMs의 시각 지식 활용 능력에 대한 심층적인 분석 제공.
LVLMs의 시각 정보 활용 능력 향상 필요성을 강조.
현존 LVLMs의 시각 정보 활용의 한계를 명확히 제시 (GPT-4o 예시).
한계점:
MRAG-Bench가 특정 시나리오에 집중되어 있어 일반화 가능성에 대한 추가 연구 필요.
GPT-4o를 포함한 최고 성능 모델에서도 시각 정보 활용에 한계가 존재, LVLMs의 시각 정보 처리 및 활용 메커니즘에 대한 추가 연구 필요.
👍