Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Look As You Think: Unifying Reasoning and Visual Evidence Attribution for Verifiable Document RAG via Reinforcement Learning

Created by
  • Haebom
Category
Empty

저자

Shuochen Liu, Pengfei Luo, Chao Zhang, Yuhao Chen, Haotian Zhang, Qi Liu, Xin Kou, Tong Xu, Enhong Chen

개요

시각 문서에서 정확한 증거 소스를 식별하는 것을 목표로, 비전-언어 모델(VLM)의 신뢰할 수 있고 검증 가능한 예측을 보장하는 시각 증거 귀속을 위한 시각 문서 검색-증강 생성(VD-RAG)에 대해 다룹니다. 본 논문에서는 Chain-of-Evidence (CoE) 패러다임을 도입하여 Chain-of-Thought (CoT) 추론과 시각 증거 귀속을 통합합니다. 이를 위해, Look As You Think (LAT)라는 강화 학습 프레임워크를 제안하여, 모델이 일관된 귀속을 가진 검증 가능한 추론 경로를 생성하도록 훈련합니다. LAT는 CoE 궤적이 정답을 산출할 때만 보상을 제공하여 과정 수준의 자체 검증을 장려합니다. Qwen2.5-VL-7B-Instruct 모델을 Paper- 및 Wiki-VISA 벤치마크에서 실험한 결과, LAT가 평균 8.23%의 soft exact match (EM) 향상과 47.0%의 IoU@0.5 향상을 보였으며, 도메인 간의 일반화 성능도 우수했습니다.

시사점, 한계점

시사점:
CoE 패러다임을 통해 CoT 추론과 시각 증거 귀속 통합.
LAT 프레임워크를 활용하여 검증 가능한 추론 경로 생성.
실험 결과, 단일 및 다중 이미지 설정에서 모두 향상된 성능 보임.
감독 학습 기반의 기존 방법보다 우수한 성능과 도메인 간의 일반화 능력 입증.
한계점:
논문 내용에 구체적인 한계점에 대한 언급은 없음. (추가 연구 필요)
👍