Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Model-Preserving Adaptive Rounding

Created by
  • Haebom

저자

Albert Tseng, Zhaofeng Sun, Christopher De Sa

개요

본 논문은 사후 훈련 양자화(PTQ)에서 기존 알고리즘이 각 선형층의 활성화 오차만을 최소화하는 한계를 극복하기 위해, 전체 모델의 KL divergence에 대한 각 선형층의 Hessian의 Kronecker-factored 근사를 이용하는 새로운 양자화 알고리즘 YAQA를 제안합니다. YAQA는 수천억 파라미터 LLM에서도 계산 가능한 Kronecker-factored Hessian 스케치와 이론적 보장을 갖춘 quantizer-independent rounding 알고리즘으로 구성됩니다. 다양한 모델과 양자화기에 걸쳐, YAQA는 기존 모델과의 KL divergence를 약 30% 감소시키면서 최첨단 성능을 달성합니다.

시사점, 한계점

시사점:
전체 모델의 KL divergence를 고려하여 기존 PTQ 알고리즘의 한계를 극복하고, 더욱 정확한 양자화를 가능하게 함.
수천억 파라미터 LLM에도 적용 가능한 효율적인 계산 방법 제시.
다양한 모델과 양자화기에 대해 우수한 성능을 보임.
이론적 보장을 갖춘 quantizer-independent rounding 알고리즘 제공.
한계점:
YAQA의 계산 비용이 여전히 높을 수 있음 (비록 기존 방법보다 효율적이더라도).
Hessian 근사의 정확도에 따라 성능이 영향을 받을 수 있음.
제시된 실험 결과가 특정 모델과 데이터셋에 국한될 가능성.
👍