Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Benchmarking Multimodal Knowledge Conflict for Large Multimodal Models

Created by
  • Haebom

저자

Yifan Jia, Kailin Jiang, Yuyang Liang, Qihan Ren, Yi Xin, Rui Yang, Fenze Feng, Mingcai Chen, Hengyang Lu, Haozhe Wang, Xiaoye Qu, Dongrui Liu, Lizhen Cui, Yuntao Du

개요

본 논문은 대규모 다중모달 모델(LMMs)이 특히 검색 증강 생성(RAG) 프레임워크에서 다중모달 지식 충돌을 만났을 때 직면하는 어려움을 다룹니다. RAG 프레임워크에서는 외부 소스의 상황 정보가 모델의 내부 매개변수 지식과 상충되어 신뢰할 수 없는 출력으로 이어질 수 있습니다. 기존 벤치마크는 이러한 현실적인 충돌 시나리오를 반영하지 못하며, 주로 내부 메모리 충돌에만 집중하고 상황-메모리 및 상황 간 충돌은 거의 조사되지 않았습니다. 또한, 일반적으로 사용되는 사실적 지식 기반 평가가 종종 간과되고, 기존 데이터셋은 충돌 감지 기능에 대한 철저한 조사가 부족합니다. 이러한 간극을 해소하기 위해 본 논문은 상황-메모리 및 상황 간 시나리오 모두에서 사실적 지식 충돌을 평가하도록 설계된 MMKC-Bench라는 벤치마크를 제안합니다. MMKC-Bench는 세 가지 유형의 다중모달 지식 충돌을 포함하며, 자동화된 파이프라인과 사람 검증을 통해 수집된 23가지 광범위한 유형에 걸쳐 1,573개의 지식 인스턴스와 3,381개의 이미지를 포함합니다. 본 논문에서는 모델 동작 분석 및 충돌 감지 작업에 대한 세 가지 대표적인 LMM 시리즈를 평가합니다. 연구 결과, 현재 LMM은 지식 충돌을 인식할 수 있지만 외부 증거보다 내부 매개변수 지식을 선호하는 경향이 있음을 보여줍니다. 본 논문은 MMKC-Bench가 다중모달 지식 충돌에 대한 추가 연구를 촉진하고 다중모달 RAG 시스템의 개발을 향상시키기를 기대합니다. 소스 코드는 https://github.com/MLLMKCBENCH/MLLMKC 에서 이용 가능합니다.

시사점, 한계점

시사점:
다중모달 지식 충돌 문제를 체계적으로 평가할 수 있는 새로운 벤치마크(MMKC-Bench) 제시
기존 LMM들이 지식 충돌을 인식하지만 내부 지식을 우선시하는 경향을 밝힘
다중모달 RAG 시스템 개발에 중요한 시사점 제공
다중모달 지식 충돌 연구에 대한 새로운 방향 제시
한계점:
MMKC-Bench의 데이터셋 규모가 더 확장될 필요가 있음.
다양한 유형의 LMM에 대한 평가가 더 필요함.
충돌 해결 전략에 대한 연구는 부족함.
현재 벤치마크가 모든 종류의 다중모달 지식 충돌을 완벽하게 포괄한다고 보기는 어려움.
👍