Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FuseGPT: Learnable Layers Fusion of Generative Pre-trained Transformers

Created by
  • Haebom

저자

Zehua Pei, Hui-Ling Zhen, Xianzhi Yu, Sinno Jialin Pan, Mingxuan Yuan, Bei Yu

개요

본 논문은 Generative Pre-trained Transformers (GPTs)의 성능 저하 없이 모델 압축을 가능하게 하는 새로운 방법론인 FuseGPT를 제안합니다. 기존의 단순한 트랜스포머 블록 제거 방식과 달리, FuseGPT는 중요도가 낮은 블록들을 제거한 후 그 매개변수들을 인접 블록에 통합하는 방식을 사용합니다. 특히, 새로운 중요도 측정 지표인 Macro Influence (MI)를 도입하여 블록의 장기적인 영향을 평가하고, 그룹 레벨 레이어 융합을 통해 매개변수를 효율적으로 통합합니다. 경량 그룹 레벨 미세 조정을 통해 반복적인 매개변수 업데이트를 수행하며, 학습 가능한 계수 행렬을 사용하여 계산 비용을 줄입니다. 대규모 언어 모델뿐만 아니라 다중 모달 모델에도 적용 가능하며, 제한된 데이터만으로도 기존 방법보다 우수한 성능을 보입니다.

시사점, 한계점

시사점:
GPTs 모델 압축에 있어 기존의 단순 삭제 방식의 한계를 극복하고 성능 저하 없이 효율적인 압축을 가능하게 함.
새로운 중요도 측정 지표인 Macro Influence (MI)를 제시하여 모델 압축의 효율성을 높임.
그룹 레벨 레이어 융합 및 경량 미세 조정을 통해 계산 비용을 절감하면서 성능을 향상시킴.
대규모 언어 모델과 다중 모달 모델 모두에 적용 가능한 범용적인 방법론 제시.
적은 데이터로도 우수한 성능을 달성함.
한계점:
Macro Influence (MI) 지표의 일반화 성능 및 다양한 모델에 대한 적용 가능성에 대한 추가적인 연구가 필요함.
그룹 레벨 레이어 융합의 최적화 전략에 대한 추가적인 연구가 필요함.
실제 상용 환경에서의 적용 가능성 및 확장성에 대한 검증이 필요함.
👍