본 논문은 대규모 언어 모델(LLM)의 효율적인 압축을 위한 새로운 기법인 Generalized Fisher-Weighted SVD (GFWSVD)를 제안합니다. 기존의 Fisher 정보 행렬의 대각 근사에 기반한 방법들은 파라미터 간의 상관관계를 무시하여 성능 저하를 야기하는데, GFWSVD는 Fisher 정보 행렬의 대각 및 비대각 요소를 모두 고려하여 파라미터의 중요도를 더 정확하게 반영합니다. Kronecker-factored 근사 알고리즘의 확장 가능한 적용을 통해 계산 비용을 줄였으며, MMLU 벤치마크에서 기존 압축 방법들보다 우수한 성능을 보임을 실험적으로 증명합니다. 예를 들어, 20배 압축률에서 FWSVD보다 5%, SVD-LLM보다 3%, ASVD보다 6% 높은 성능을 달성했습니다.