본 논문은 Generative Pre-trained Transformers (GPTs)의 성능 저하 없이 모델 압축을 가능하게 하는 새로운 방법론인 FuseGPT를 제안합니다. 기존의 단순한 트랜스포머 블록 제거 방식과 달리, FuseGPT는 중요도가 낮은 블록들을 제거한 후 그 매개변수들을 인접 블록에 통합하는 방식을 사용합니다. 특히, 새로운 중요도 측정 지표인 Macro Influence (MI)를 도입하여 블록의 장기적인 영향을 평가하고, 그룹 레벨 레이어 융합을 통해 매개변수를 효율적으로 통합합니다. 경량 그룹 레벨 미세 조정을 통해 반복적인 매개변수 업데이트를 수행하며, 학습 가능한 계수 행렬을 사용하여 계산 비용을 줄입니다. 대규모 언어 모델뿐만 아니라 다중 모달 모델에도 적용 가능하며, 제한된 데이터만으로도 기존 방법보다 우수한 성능을 보입니다.