Sign In

Sample-aware Adaptive Structured Pruning for Large Language Models

Created by
  • Haebom
Category
Empty

저자

Jun Kong, Xinge Ma, Jin Wang, Xuejie Zhang

개요

본 논문은 대규모 언어 모델(LLM)의 효율적인 구축을 위한 새로운 구조적 가지치기 프레임워크인 AdaPruner를 제시합니다. 기존 방법들의 무작위 보정 데이터 및 고정된 중요도 측정 방식의 한계를 극복하고자, 베이지안 최적화를 통해 최적의 보정 데이터와 중요도 측정 방식을 적응적으로 탐색하는 방식을 채택합니다. AdaPruner는 LLM에서 중복 매개변수를 효과적으로 제거하여 자원 소모를 줄이고, 다양한 가지치기 비율에서 기존 방법들보다 우수한 성능을 보입니다. 특히, 20% 가지치기 비율에서도 원 모델 성능의 97%를 유지하는 성과를 보였습니다.

시사점, 한계점

시사점:
LLM의 효율적인 구축 및 배포를 위한 새로운 가능성 제시
기존 구조적 가지치기 방법의 한계점 개선
베이지안 최적화 기반의 적응적 탐색 전략의 효용성 증명
높은 가지치기 비율에서도 우수한 성능 유지
한계점:
AdaPruner의 성능 향상이 특정 LLM 및 데이터셋에 국한될 가능성
베이지안 최적화 과정의 계산 비용이 높을 수 있음
다양한 LLM 아키텍처 및 크기에 대한 일반화 가능성 검증 필요
👍