Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

VRAG-RL: Empower Vision-Perception-Based RAG for Visually Rich Information Understanding via Iterative Reasoning with Reinforcement Learning

Created by
  • Haebom

저자

Qiuchen Wang, Ruixue Ding, Yu Zeng, Zehui Chen, Lin Chen, Shihang Wang, Pengjun Xie, Fei Huang, Feng Zhao

개요

본 논문은 시각적으로 풍부한 정보에 대한 효과적인 검색, 추론 및 이해가 RAG(Retrieval Augmented Generation) 방법의 과제임을 지적합니다. 기존의 텍스트 기반 방법은 시각 정보를 처리할 수 없고, 기존의 시각 기반 RAG 접근 방식은 고정된 파이프라인에 제한되며 모델의 기본 기능 활성화 부족으로 인해 효과적인 추론에 어려움을 겪습니다. 따라서 본 논문에서는 시각적으로 풍부한 정보에 대한 복잡한 추론을 위해 설계된 새로운 RL(Reinforcement Learning) 프레임워크인 VRAG-RL을 제시합니다. VRAG-RL은 VLMs(Vision-Language Models)가 검색 엔진과 상호 작용하여 시각적 인식 토큰을 활용하여 단일 턴 또는 다중 턴 추론 경로를 자율적으로 샘플링하고, 이러한 샘플을 기반으로 지속적인 최적화를 수행합니다. 특히, 기존 다중 모달 RAG 접근 방식의 제한점인 불충분한 추론 토큰 할당과 시각 특유의 인식 무시, 그리고 검색 엔진과의 상호 작용 시 요구 사항을 명확히 표현하지 못해 관련 정보 검색 실패 문제를 해결하기 위해, 크롭 및 스케일링 등의 동작을 포함하는 시각적으로 풍부한 입력을 위한 동작 공간을 정의하고, 쿼리 재작성 및 검색 성능을 통합하는 보상 메커니즘을 사용합니다. 결론적으로 VRAG-RL은 특별히 설계된 RL 전략을 사용하여 RAG 작업을 위한 VLMs를 최적화하여 실제 응용 프로그램에 맞춥니다. 코드는 https://github.com/Alibaba-NLP/VRAG 에서 이용 가능합니다.

시사점, 한계점

시사점:
시각적으로 풍부한 정보에 대한 효과적인 RAG를 위한 새로운 RL 프레임워크 VRAG-RL 제시
시각 정보를 활용한 추론 성능 향상
쿼리 재작성 및 검색 성능 개선을 통한 정보 검색 정확도 향상
다중 모달 RAG의 한계점 해결 및 실제 응용 가능성 제시
코드 공개를 통한 재현성 및 확장성 제공
한계점:
제안된 보상 메커니즘의 일반화 가능성에 대한 추가 연구 필요
다양한 시각 데이터 및 RAG 작업에 대한 추가적인 실험 필요
RL 기반 접근 방식의 계산 비용 및 학습 시간에 대한 고려 필요
👍