제한된 자원 하에서 효율적인 LLM 서비스를 가능하게 하는 데 정량화는 중요한 단계입니다. 그러나 이전 연구에 따르면 LLM의 특정 가중치(이상치)는 정량화 노이즈에 매우 민감합니다. 기존의 정량화 방법은 성능을 유지하기 위해 이러한 이상치를 부동 소수점 또는 더 높은 정밀도로 남겨두어 혼합 정밀도 모델의 효율적인 하드웨어 배포에 어려움을 초래합니다. 본 연구는 효율적인 미세 조정 프로세스를 통해 이상치에 대한 손실 헤시안 트레이스를 줄임으로써 민감한 가중치의 정량화 오류에 대한 영향을 완화하는 대안적인 방법을 조사합니다. 본 논문에서는 Noise Perturbation Fine-tuning (NPFT)을 제안합니다. NPFT는 이상치 가중치를 식별하고 PEFT 최적화를 거치는 모델에 이상치에 대한 무작위 가중치 변동을 추가합니다. NPFT는 이상치에 대한 특별한 처리 없이 양자화된 모델 성능을 향상시킬 수 있도록 이상치 가중치의 민감도를 완화합니다. OPT 및 LLaMA 모델에 적용될 때, 본 논문의 NPFT 방법은 균일 및 비균일 양자화기 모두에 대해 안정적인 성능 향상을 달성하는 동시에 더 나은 추론 효율성을 제공합니다. 특히, 가장 단순한 RTN은 LLaMA2-7B-4bits 벤치마크에서 NPFT를 사용하여 GPTQ와 동등한 성능을 달성할 수 있습니다.