Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

HBLLM: Wavelet-Enhanced High-Fidelity 1-Bit Quantization for LLMs

Created by
  • Haebom
Category
Empty

저자

Ningning Chen, Weicai Ye, Ying Jiang

개요

HBLLM은 웨이블릿 기반의 고품질 1-비트 후처리 양자화 기법으로, 대형 언어 모델(LLM)을 위해 개발되었습니다. Haar 웨이블릿 변환을 활용하여 주파수 분해를 통해 표현력을 향상시켜 양자화 정확도를 크게 개선하면서 오버헤드는 최소화합니다. HBLLM은 두 가지 혁신적인 구조 인식 그룹화 전략을 특징으로 합니다: (1) 주파수 인식 다중 파라미터 행 내 그룹화 및 (2) $\ell_2$-norm 기반의 중요도 중심 열 선택. 중요하지 않은 가중치에 대해서는 각 주파수 대역 내의 양자화 그룹 전체에 공유 평균을 사용하여 저장 효율성을 최적화합니다. OPT 및 LLaMA 모델을 대상으로 한 실험에서 HBLLM은 1-비트 양자화 분야에서 최고 성능을 달성하여 LLaMA2-13B 모델에서 6.71의 perplexity를 기록했으며, 평균 가중치 저장량은 1.08비트였습니다.

시사점, 한계점

시사점:
1-비트 양자화 분야에서 SOTA 성능 달성.
웨이블릿 변환을 활용하여 양자화 정확도 향상.
두 가지 혁신적인 구조 인식 그룹화 전략 적용.
저장 효율성을 위한 공유 평균 사용.
한계점:
논문 내용에 명시된 한계점은 없음.
👍