Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

MetaTT: A Global Tensor-Train Adapter for Parameter-Efficient Fine-Tuning

Created by
  • Haebom
Category
Empty

저자

Javier Lopez-Piqueres, Pranav Deshpande, Archan Ray, Mattia J. Villani, Marco Pistoia, Niraj Kumar

MetaTT: Tensor Train Adapter for Parameter-Efficient Fine-tuning of Transformers

개요

MetaTT는 사전 훈련된 Transformer 모델의 파인 튜닝을 위한 텐서 트레인(TT) 어댑터 프레임워크입니다. MetaTT는 단일 공유 TT를 사용하여 Transformer 하위 모듈을 인수 분해하여 유연하고 매개변수 효율적인 모델 적응을 가능하게 합니다. 이 인수 분해는 레이어 및 행렬 유형을 포함한 주요 구조적 차원을 인덱싱하며, 선택적으로 헤드 및 작업을 통합할 수 있습니다. 이러한 설계로 인해 MetaTT의 매개변수 수는 모드의 곱이 아닌 합에 따라 확장되어 훨씬 더 컴팩트한 어댑터를 만들 수 있습니다. 단일 작업 표준 언어 모델링 벤치마크에서 MetaTT는 LoRA 및 최신 행렬 및 텐서 분해 기반 파인 튜닝 방법과 경쟁력 있는 매개변수 효율성을 보입니다. 또한 MetaTT는 다중 작업 학습에서도 최첨단 방법과 경쟁력 있는 성능을 보입니다. 마지막으로, TT-ansatz를 활용하여 다체 물리학의 DMRG 방법을 기반으로 하는 순위 적응형 최적화기를 설계했습니다. 이 접근 방식을 AdamW와 통합하면 지정된 대상 순위에 대한 최적화 성능이 향상됩니다.

시사점, 한계점

시사점:
MetaTT는 Transformer 모델의 파인 튜닝을 위한 매개변수 효율적인 접근 방식을 제공합니다.
단일 작업 및 다중 작업 학습 모두에서 경쟁력 있는 성능을 달성합니다.
TT-ansatz를 활용한 순위 적응형 최적화기를 통해 최적화 성능을 향상시킵니다.
한계점:
논문에서 구체적인 한계점은 제시되지 않았습니다. (요약본만 존재)
👍