Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Towards Efficient VLMs: Information-Theoretic Driven Compression via Adaptive Structural Pruning

Created by
  • Haebom
Category
Empty

저자

Zhaoqi Xu, Yingying Zhang, Jian Li, Jianwei Guo, Qiannan Zhu, Hua Huang

개요

본 논문은 비전-언어 모델(VLMs)의 효율적인 배포를 위해 정보 이론적 프레임워크인 InfoPrune을 제안합니다. InfoPrune은 정보 병목 원리에 기반하여, 태스크 관련 의미를 유지하면서 중복된 의존성을 제거하는 방식으로 VLM의 구조적 압축을 수행합니다. 이를 위해 엔트로피 기반 유효 랭크(eRank)를 도입하여 각 어텐션 헤드의 기여도를 정량화하고, Kolmogorov-Smirnov (KS) 거리를 사용하여 원본 구조와 압축된 구조 간의 차이를 측정합니다. InfoPrune은 훈련 기반 헤드 프루닝과 훈련 없는 FFN 압축을 통해 최대 3.2배의 FLOP 감소와 1.8배의 가속을 달성하면서 성능 저하를 최소화합니다.

시사점, 한계점

시사점:
정보 이론에 기반한 VLM 압축 프레임워크 제시.
eRank 및 KS 거리를 활용한 효과적인 정보 손실 측정 방법론 개발.
훈련 기반 헤드 프루닝과 훈련 없는 FFN 압축을 결합한 실용적인 압축 기법 제안.
다양한 시각-언어 태스크에서 우수한 압축 성능 입증.
한계점:
모델 압축의 일반화 가능성에 대한 추가 연구 필요.
InfoPrune의 다른 VLM 아키텍처 및 태스크에 대한 확장성 검증 필요.
압축 과정에서 발생하는 잠재적 편향에 대한 분석 부족.
👍