본 논문은 대규모 언어 모델(LLM)의 크기와 계산 요구량을 줄이기 위한 모델 가지치기 기술의 일반화 가능성을 평가합니다. 24개의 데이터셋과 4가지 작업에 걸쳐 기존 가지치기 방법들을 광범위하게 평가하여, 보정 집합이 가지치기 방법의 성능에 큰 영향을 미친다는 것을 발견했습니다. 또한, 놀랍게도 기존 가지치기 방법들이 감정 분류 작업에서 성능 저하를 보이는 것을 발견하고, 이러한 성능 저하와 가지치기된 뉴런 간의 관계를 이해하기 위해 뉴런 의미 속성(Neuron Semantic Attribution)이라는 새로운 방법을 제안합니다. 이 방법은 LLM의 가지치기되지 않은 뉴런을 설명 가능하게 만듭니다.