Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

VoQA: Visual-only Question Answering

Created by
  • Haebom

저자

Luyang Jiang, Jianing An, Jie Luo, Wenjun Wu, Lei Huang

개요

본 논문은 이미지 내에 시각적으로 내장된 질문에 답하는 새로운 다중 모드 작업인 Visual-only Question Answering (VoQA)를 제안합니다. 이는 기존의 대규모 비전-언어 모델(LLM)이 세심하게 설계된 프롬프트에도 불구하고 성능 저하를 보이는 어려움을 야기합니다. 이러한 문제를 해결하기 위해 본 논문은 순전히 시각적 입력에 기반하여 단계별 추론을 수행하도록 모델을 안내하는 구조화된 미세 조정 전략인 Guided Response Triggering Supervised Fine-tuning (GRT-SFT)을 제시하며, 이를 통해 모델 성능을 크게 향상시킵니다. 이 연구는 정보(언어 포함)가 시각적으로 인지되는 복잡한 다중 모드 시나리오에서 인간과 유사한 시각적 이해 능력을 향상시킵니다.

시사점, 한계점

시사점:
시각적으로 내장된 질문에 대한 답변이 가능한 새로운 다중 모달 작업 VoQA를 제시합니다.
기존 LLM의 한계를 극복하는 새로운 미세 조정 전략 GRT-SFT를 제안합니다.
복잡한 시각적 정보 처리 능력 향상에 기여합니다.
인간과 유사한 시각적 이해 능력을 가진 모델 개발 가능성을 제시합니다.
한계점:
GRT-SFT의 일반화 성능에 대한 추가적인 연구가 필요합니다.
다양한 유형의 시각적으로 내장된 질문에 대한 로버스트니스를 더욱 검증해야 합니다.
실제 세계 데이터셋을 활용한 추가적인 실험이 필요합니다.
👍