Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Hybrid-Level Instruction Injection for Video Token Compression in Multi-modal Large Language Models

Created by
  • Haebom
Category
Empty

저자

Zhihang Liu, Chen-Wei Xie, Pandeng Li, Liming Zhao, Longxiang Tang, Yun Zheng, Chuanbin Liu, Hongtao Xie

개요

본 논문은 다중 모달 대규모 언어 모델(MLLM)에서 비디오 프레임의 막대한 계산 오버헤드 문제를 해결하기 위해, 명령어를 조건으로 활용한 하이브리드 수준 명령어 주입 전략(HICom)을 제안합니다. HICom은 지역적 및 전역적 수준에서 명령어를 조건으로 하여 압축을 수행함으로써, 사용자 중심 정보는 최대한 유지하면서 계산 부하를 줄이도록 설계되었습니다. 특히, 지역적 수준에서는 그룹화된 시각적 토큰에, 전역적 수준에서는 학습 가능한 토큰에 명령어 조건을 주입하고, 어텐션 메커니즘을 통해 조건부 압축을 완료합니다. 새로운 조건부 사전 훈련 단계와 HICom-248K 데이터셋을 도입하여 HICom의 성능을 더욱 향상시켰으며, 실험 결과 세 가지 다중 선택 QA 벤치마크에서 평균 2.43%의 성능 향상과 SOTA 방법 대비 78.8%의 토큰 절감 효과를 보였습니다.

시사점, 한계점

시사점:
명령어를 조건으로 활용한 하이브리드 수준의 토큰 압축 전략을 통해 MLLM의 비디오 처리 효율을 크게 향상시켰습니다.
기존의 단순한 압축 전략(예: 평균 풀링)보다 사용자 중심 정보를 더 효과적으로 보존할 수 있습니다.
제안된 HICom-248K 데이터셋과 조건부 사전 훈련 방법을 통해 MLLM의 비디오 이해 능력을 향상시켰습니다.
다중 선택 QA 벤치마크에서 SOTA 성능을 능가하는 결과를 달성했습니다.
한계점:
제안된 방법의 효과는 특정 유형의 다중 선택 QA 벤치마크에 국한될 수 있습니다. 다양한 비디오 이해 태스크에 대한 일반화 성능 평가가 추가적으로 필요합니다.
HICom-248K 데이터셋의 규모 및 다양성이 향후 연구에서 더욱 확장될 필요가 있습니다.
지역적 및 전역적 수준의 압축 전략의 최적 조합에 대한 추가적인 연구가 필요합니다.
👍