Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FIMA-Q: Post-Training Quantization for Vision Transformers by Fisher Information Matrix Approximation

Created by
  • Haebom

저자

Zhuguanyu Wu, Shihe Wang, Jiayi Zhang, Jiaxin Chen, Yunhong Wang

개요

본 논문은 Vision Transformer (ViT)에 대한 Post-training Quantization (PTQ) 방법인 FIMA-Q를 제안합니다. 기존 PTQ 방법들이 저비트 양자화에서 정확도 저하 문제를 겪는다는 점을 지적하며, Hessian-guided quantization loss의 한계점을 분석합니다. 블록 단위 재구성 프레임워크를 기반으로, KL divergence와 Fisher Information Matrix (FIM) 간의 관계를 활용하여 양자화 손실을 빠르게 계산하는 방법을 제시합니다. 더 나아가, diagonal plus low-rank principle을 이용한 효율적인 FIM 근사 방법인 DPLR-FIM을 제안하고, 최종 양자화 손실을 공식화합니다. 다양한 비전 작업과 ViT 기반 아키텍처, 공개 데이터셋을 사용한 실험을 통해 기존 최첨단 방법들에 비해, 특히 저비트 양자화에서 정확도를 크게 향상시킴을 보여줍니다. 소스 코드는 GitHub에서 공개됩니다.

시사점, 한계점

시사점:
ViT에 대한 효과적인 PTQ 방법인 FIMA-Q 제안.
저비트 양자화에서도 높은 정확도 유지.
KL divergence와 FIM 간의 관계를 활용한 효율적인 양자화 손실 계산.
DPLR-FIM을 이용한 효율적인 FIM 근사 방법 제안.
다양한 비전 작업과 아키텍처에서 성능 향상 검증.
소스 코드 공개를 통한 재현성 확보.
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 연구 필요.
다른 종류의 모델이나 양자화 기법에 대한 적용 가능성 검토 필요.
DPLR-FIM 근사의 정확도에 대한 추가 분석 필요.
👍