본 논문은 Vision Transformer (ViT)에 대한 Post-training Quantization (PTQ) 방법인 FIMA-Q를 제안합니다. 기존 PTQ 방법들이 저비트 양자화에서 정확도 저하 문제를 겪는다는 점을 지적하며, Hessian-guided quantization loss의 한계점을 분석합니다. 블록 단위 재구성 프레임워크를 기반으로, KL divergence와 Fisher Information Matrix (FIM) 간의 관계를 활용하여 양자화 손실을 빠르게 계산하는 방법을 제시합니다. 더 나아가, diagonal plus low-rank principle을 이용한 효율적인 FIM 근사 방법인 DPLR-FIM을 제안하고, 최종 양자화 손실을 공식화합니다. 다양한 비전 작업과 ViT 기반 아키텍처, 공개 데이터셋을 사용한 실험을 통해 기존 최첨단 방법들에 비해, 특히 저비트 양자화에서 정확도를 크게 향상시킴을 보여줍니다. 소스 코드는 GitHub에서 공개됩니다.