Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

VERA: Explainable Video Anomaly Detection via Verbalized Learning of Vision-Language Models

Created by
  • Haebom
Category
Empty

저자

Muchao Ye, Weiyang Liu, Pan He

개요

본 논문은 비디오 이상 탐지(VAD)를 위해 사전 훈련된 시각-언어 모델(VLMs)을 활용하는 새로운 패러다임을 제시합니다. 기존 연구는 VAD에 필요한 복잡한 추론을 위해 사전 훈련된 VLMs의 능력을 초과한다고 가정하여 추론 중 특수 추론 모듈을 통합하거나 추가 훈련을 통해 VLMs를 VAD에 적응시키는 지시 조정 데이터셋에 의존했습니다. 이러한 전략은 상당한 계산 비용이나 데이터 주석 오버헤드를 초래합니다. 본 논문에서는 모델 매개변수 수정 없이 VLMs가 VAD를 수행할 수 있도록 하는 Verbalized Learning Framework, VERA를 제시합니다. VERA는 VAD에 필요한 복잡한 추론을 더 단순하고 집중된 안내 질문으로 자동 분해하여 이러한 질문들을 학습 가능한 매개변수로 취급하고, 거칠게 라벨링된 훈련 데이터를 사용하여 학습자와 최적화자 VLMs 간의 데이터 기반 언어적 상호 작용을 통해 이들을 최적화합니다. 추론 중에 VERA는 학습된 질문을 모델 프롬프트에 포함하여 VLMs가 세그먼트 수준의 이상 점수를 생성하도록 안내하고, 이는 장면 및 시간적 맥락의 융합을 통해 프레임 수준의 점수로 정제됩니다. 실험 결과는 VERA의 학습된 질문이 매우 적응력이 뛰어나 VAD에 대한 VLMs의 탐지 성능과 설명 가능성을 모두 크게 향상시킨다는 것을 보여줍니다.

시사점, 한계점

시사점:
모델 매개변수 수정 없이 VLMs를 활용한 설명 가능한 VAD 프레임워크 VERA 제시.
복잡한 추론 과정을 단순한 안내 질문으로 분해하여 효율성 증대.
거칠게 라벨링된 데이터를 사용하여 데이터 주석 오버헤드 감소.
학습된 질문을 통해 VAD의 탐지 성능과 설명 가능성 향상.
한계점:
VERA의 성능은 사용되는 VLMs의 성능에 의존적일 수 있음.
거칠게 라벨링된 데이터 사용으로 인해 정확도에 제한이 있을 수 있음.
다양한 유형의 이상 현상에 대한 일반화 성능 평가 필요.
특정 유형의 비디오 데이터에 대한 편향 가능성 존재.
👍