본 논문은 확산 모델 기반 이미지 생성의 높은 메모리 및 연산 요구량 문제를 해결하기 위해 Post-Training Quantization (PTQ) 기법을 개선한 HadaNorm을 제안합니다. 기존 PTQ 방법의 아웃라이어 문제와 높은 압축률 달성을 위한 사전 변환 필요성을 해결하기 위해, HadaNorm은 채널 활성화 정규화와 Hadamard 변환을 결합하여 아웃라이어를 효과적으로 완화하고 공격적인 활성화 양자화를 가능하게 합니다. 실험 결과, HadaNorm은 Transformer 블록의 다양한 구성 요소에서 양자화 오차를 일관되게 감소시키며, 최첨단 방법들을 능가하는 성능을 보입니다.