본 논문은 대규모 언어 모델(LLM)의 이상치(outliers)가 정량화 및 압축과 같은 다양한 측면의 성능에 미치는 영향을 고려하여, 이상치의 형성 메커니즘에 대한 심층적인 조사를 수행합니다. 특히, 대규모 활성화(massive activations)와 채널별 이상치(channel-wise outliers) 두 가지 유형의 이상치에 초점을 맞춰, 이들의 발생 메커니즘을 규명하고 발생률을 줄이는 전략을 제안합니다. 결과적으로, 정확도 저하를 최소화하면서 대부분의 대규모 활성화와 채널별 이상치를 제거하는 효율적인 방법을 제시합니다.