본 논문은 대규모 언어 모델(LLM)의 추론 효율을 높이기 위해 사용되는 활성화 함수 근사 기법의 안전성 문제를 최초로 체계적으로 평가한 연구입니다. Llama, Gemma, Mistral 등의 LLM에서 사용되는 다양한 활성화 함수 근사 기법(다항식 근사, 희소화, 양자화) 7가지를 10개의 안전성 중심 LLM에 적용하여 안전성 저하를 분석했습니다. 그 결과, 모든 기법에서 안전성 저하가 발생함을 확인하고, 이러한 저하의 공통된 오류 패턴을 분석하여 세 가지 주요 원인을 밝혔습니다. 또한, 활성화 함수 근사에 따른 안전성 저하를 완화하기 위한 새로운 안전 강화 기법인 QuadA를 제안하고, 광범위한 실험을 통해 그 효과를 검증했습니다.