Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Gather and Trace: Rethinking Video TextVQA from an Instance-oriented Perspective

Created by
  • Haebom

저자

Yan Zhang, Gangyan Zeng, Daiqing Wu, Huawen Shen, Binbin Li, Yu Zhou, Can Ma, Xiaojun Bi

개요

본 논문은 비디오 텍스트 기반 시각적 질문 응답(Video TextVQA) 문제에 대한 새로운 모델인 GAT(Gather and Trace)를 제안합니다. 기존의 프레임 단위 접근 방식의 한계를 극복하기 위해, 인스턴스 중심 관점에서 문제를 재해석합니다. GAT는 먼저, 시각적 외관, 레이아웃 특징, 텍스트 내용을 통합하여 각 비디오 텍스트 인스턴스에 대한 정확한 해석을 얻는 컨텍스트 집계 인스턴스 수집 모듈을 사용합니다. 다음으로, 인스턴스 간의 시공간적 관계를 설정하고 최종 답변을 추론하기 위해 인스턴스 중심 궤적 추적 모듈을 통해 비디오 흐름에서 텍스트의 동적 진화를 포착합니다. 여러 공개 Video TextVQA 데이터셋에서의 실험 결과, GAT는 기존 방법들보다 정확도와 추론 속도 모두에서 우수한 성능을 보이며, 특히 기존 최고 성능 모델보다 정확도는 3.86% 향상되고 추론 속도는 10배 빨라짐을 보였습니다. 소스 코드는 GitHub에서 공개됩니다.

시사점, 한계점

시사점:
기존 프레임 단위 Video TextVQA 모델의 한계(중복된 텍스트 엔티티 및 암시적 관계 모델링)를 극복하는 새로운 인스턴스 중심 접근 방식 제시.
정확도와 추론 속도 모두에서 기존 최고 성능 모델을 능가하는 성능 달성 (정확도 3.86% 향상, 추론 속도 10배 향상).
시각적 외관, 레이아웃 특징, 텍스트 내용을 통합하는 효과적인 컨텍스트 집계 및 인스턴스 추적 메커니즘 제시.
공개된 소스 코드를 통해 재현성 및 추가 연구 가능성 확보.
한계점:
제안된 모델의 일반화 성능에 대한 추가적인 검증 필요. 특정 데이터셋에 과적합될 가능성 존재.
복잡한 비디오 텍스트 상호작용이나 모호한 질문에 대한 로버스트성 평가 필요.
모델의 계산 복잡도 및 메모리 사용량에 대한 분석 필요.
👍