Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

TS-PEFT: Token-Selective Parameter-Efficient Fine-Tuning with Learnable Threshold Gating

Created by
  • Haebom
Category
Empty

저자

Dabiao Ma, Ziming Dai, Zhimin Xin, Shu Wang, Ye Wang, Haojun Fei

개요

대규모 언어 모델(LM)과 컴퓨터 비전(CV) 분야에서, 사전 훈련된 가중치를 고정하고 제한된 수의 파라미터만 수정하는 자원 효율적인 방법인 Parameter-Efficient Fine-Tuning (PEFT)이 등장했다. 본 논문은 모든 위치 인덱스에 수정을 적용하는 기존 PEFT 접근 방식의 필요성에 의문을 제기하고, Token-Selective PEFT (TS-PEFT)라는 새로운 패러다임을 제안한다. TS-PEFT는 함수 S를 사용하여 PEFT 수정을 위치 인덱스의 하위 집합에 선택적으로 적용하며, 다운스트림 작업의 성능을 향상시킬 수 있다. 실험 결과는 모든 인덱스에 대한 무차별적인 PEFT 적용이 불필요할 뿐만 아니라 역효과를 낼 수 있음을 보여준다. 본 연구는 PEFT에 대한 새로운 관점을 제시하고, 보다 목표 지향적인 수정 방식을 옹호하며, 대규모 모델의 미세 조정을 최적화하기 위한 프레임워크를 제공한다.

시사점, 한계점

시사점:
모든 위치 인덱스에 PEFT를 적용하는 것은 불필요하거나 해로울 수 있음.
TS-PEFT와 같이 선택적인 PEFT 접근 방식은 성능을 향상시킬 수 있음.
대규모 모델의 미세 조정을 위한 새로운 연구 방향 제시.
한계점:
TS-PEFT의 구체적인 구현 및 성능에 대한 추가적인 분석 필요.
다양한 모델 아키텍처 및 작업에 대한 TS-PEFT의 일반화 가능성 연구 필요.
함수 S의 설계 및 최적화에 대한 추가적인 연구 필요.
👍