본 논문은 양자화된 모델의 최종 출력 오류를 직접 고려하는 적응형 반올림 알고리즘인 Yet Another Quantization Algorithm (YAQA)를 소개합니다. 기존 양자화 알고리즘이 각 레이어의 활성화 오류를 최소화하는 것과 달리, YAQA는 네트워크의 최종 출력 오류를 직접 고려하여 엔드 투 엔드 오류를 줄입니다. 연구 결과는 YAQA가 기존 방법론인 GPTQ/LDLQ보다 약 30% 더 낮은 오류를 보이며, 양자화 인식 훈련보다도 우수한 성능을 달성함을 입증합니다.