비전-언어 모델(VLM) CLIP의 양자화가 성능에 미치는 영향을 대규모로 평가합니다. 정확도뿐만 아니라 신뢰성 지표를 종합적으로 평가하여, 사전 훈련 소스에 따라 반직관적인 결과를 발견했습니다. 양자화는 일반적으로 자신감이 부족한 사전 훈련 모델의 보정을 일관되게 개선하고, 자신감이 과도한 변형 모델의 경우 보정을 저하시키는 경향이 있습니다. 보정 저하에도 불구하고 OOD(out-of-distribution) 감지가 개선될 수 있음을 확인했으며, 특정 QAT(quantization-aware training) 방법이 정확도, 보정, OOD 견고성에서 동시적인 이점을 제공함을 확인했습니다.