MetaTT: A Global Tensor-Train Adapter for Parameter-Efficient Fine-Tuning
Created by
Haebom
Category
Empty
저자
Javier Lopez-Piqueres, Pranav Deshpande, Archan Ray, Mattia J. Villani, Marco Pistoia, Niraj Kumar
MetaTT: Tensor Train Adapter for Parameter-Efficient Fine-tuning of Transformers
개요
MetaTT는 사전 훈련된 Transformer 모델의 파인 튜닝을 위한 텐서 트레인(TT) 어댑터 프레임워크입니다. MetaTT는 단일 공유 TT를 사용하여 Transformer 하위 모듈을 인수 분해하여 유연하고 매개변수 효율적인 모델 적응을 가능하게 합니다. 이 인수 분해는 레이어 및 행렬 유형을 포함한 주요 구조적 차원을 인덱싱하며, 선택적으로 헤드 및 작업을 통합할 수 있습니다. 이러한 설계로 인해 MetaTT의 매개변수 수는 모드의 곱이 아닌 합에 따라 확장되어 훨씬 더 컴팩트한 어댑터를 만들 수 있습니다. 단일 작업 표준 언어 모델링 벤치마크에서 MetaTT는 LoRA 및 최신 행렬 및 텐서 분해 기반 파인 튜닝 방법과 경쟁력 있는 매개변수 효율성을 보입니다. 또한 MetaTT는 다중 작업 학습에서도 최첨단 방법과 경쟁력 있는 성능을 보입니다. 마지막으로, TT-ansatz를 활용하여 다체 물리학의 DMRG 방법을 기반으로 하는 순위 적응형 최적화기를 설계했습니다. 이 접근 방식을 AdamW와 통합하면 지정된 대상 순위에 대한 최적화 성능이 향상됩니다.
시사점, 한계점
•
시사점:
◦
MetaTT는 Transformer 모델의 파인 튜닝을 위한 매개변수 효율적인 접근 방식을 제공합니다.