본 논문은 자원 제약이 있는 개인 기기에서의 대규모 언어 모델(LLM) 미세 조정의 어려움을 해결하기 위해, 정량화된 매개변수 효율적인 미세 조정 프레임워크인 Quaff를 제안합니다. Quaff는 활성화 이상치 채널의 공간적 안정성에 기반한 Outlier Spatial Stability Hypothesis (OSSH)를 활용하여, 경량 연산을 통해 이상치를 동적으로 억제함으로써 정량화 오류를 줄이고, 전정밀 가중치 저장 및 전역 재조정을 없애 효율성을 높입니다. 다양한 벤치마크 실험을 통해 OSSH의 타당성과 Quaff의 효과를 검증하였으며, GPQA 추론 벤치마크에서 지연 시간 1.73배 감소, 메모리 30% 절감, 정확도 0.6% 향상을 달성했습니다. 이는 효율성, 성능, 배포 가능성 간의 상충 관계를 해결하는 결과입니다.