본 논문은 사전 훈련된 모델의 계산 비용을 줄이기 위해 파라미터의 부분 집합을 제거하는 네트워크 가지치기 알고리즘에 대해 다룹니다. 특히, 재훈련 없이 사전 훈련된 모델의 활성화를 활용하여 희소 모델을 생성하는 "NeuroAl" 알고리즘을 제안합니다. NeuroAl은 블록별 및 행별 희소성을 수정하여 활성화 간의 뉴런 정렬을 최대화합니다. 다양한 LLM 모델과 언어 작업에 대해 테스트하여 성능-런타임 트레이드 오프 측면에서 최신 SOTA 방법보다 우수함을 입증합니다.