Convolutional Neural Networks (CNNs)는 이미지 인식 분야에서 널리 사용되며, 정확도와 일반화 성능을 높이기 위해 모델의 규모가 커지고 있습니다. 본 연구는 제한된 컴퓨팅 자원을 가진 환경에서 특정 대상 응용 프로그램을 위해 사전 훈련된 모델을 압축하는 방법에 대한 연구입니다. 특히, 설명 가능한 AI 기술인 Layer-wise Relevance Propagation (LRP)을 활용한 모델 압축 기법은 미세 조정 없이도 높은 가지치기 비율을 달성하여 정확도를 유지하는 데 유망함을 보였습니다. 그러나 기존 LRP 기반 가지치기 방법은 상당한 정확도 저하를 겪어 실용성을 제한했습니다. 본 연구는 더 높은 가지치기 비율을 달성하면서 더 나은 모델 정확도를 유지하는 가지치기 방법을 제안합니다. 소량의 데이터를 사용한 가지치기 접근 방식으로 기존 방법보다 정확도를 더 잘 보존하는 가지치기를 달성했습니다.