Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DLP: Dynamic Layerwise Pruning in Large Language Models

Created by
  • Haebom

저자

Yuli Chen, Bo Cheng, Jiale Han, Yingying Zhang, Yingting Li, Shuhao Zhang

개요

본 논문은 대규모 언어 모델(LLM)의 매개변수 규모를 줄이고 추론 효율을 향상시키기 위한 새로운 가지치기 방법인 동적 계층별 가지치기(Dynamic Layerwise Pruning, DLP)를 제안합니다. 기존의 균일한 계층별 가지치기 방법과 달리, DLP는 모델 가중치와 입력 활성화 정보를 통합하여 각 계층의 상대적 중요도를 적응적으로 결정하고, 이에 따라 가지치기 비율을 할당합니다. 실험 결과, DLP는 여러 LLM에서 높은 스파스성 수준에서도 모델 성능을 효과적으로 유지하는 것으로 나타났습니다. 특히, 70% 스파스성에서 LLaMA2-7B의 perplexity를 7.79 감소시키고 평균 정확도를 2.7% 향상시켰으며, 기존 최첨단 방법보다 우수한 성능을 보였습니다. 또한, DLP는 다양한 기존 LLM 압축 기술과 호환되며, 매개변수 효율적인 미세 조정(PEFT)에도 원활하게 통합될 수 있습니다. 소스 코드는 공개되었습니다.

시사점, 한계점

시사점:
기존의 균일한 계층별 가지치기의 한계를 극복하는 새로운 동적 계층별 가지치기(DLP) 방법 제시.
높은 스파스성 수준에서도 우수한 성능 유지. LLaMA2-7B를 기준으로 70% 스파스성에서 괄목할 만한 성능 향상 확인.
다양한 기존 LLM 압축 기술 및 PEFT와의 호환성.
소스 코드 공개를 통한 향후 연구 활성화.
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 검증 필요. 다양한 LLM 및 다양한 크기의 모델에 대한 실험 결과가 더 필요할 수 있음.
DLP의 계산 비용 및 시간 복잡도에 대한 분석 부족. 적응적 계층별 중요도 결정 과정의 계산 부하가 클 수 있음.
특정 LLM에 최적화된 하이퍼파라미터 설정에 대한 자세한 설명 부족. 하이퍼파라미터 튜닝의 어려움.
👍