Distribution-Aligned Decoding for Efficient LLM Task Adaptation
Created by
Haebom
저자
Senkang Hu, Xudong Han, Jinqi Jiang, Yihang Tao, Zihan Fang, Yong Dai, Sam Tak Wu Kwong, Yuguang Fang
개요
본 논문은 대규모 언어 모델을 다운스트림 작업에 적용하는 데 드는 비용을 줄이기 위해, 가중치 업데이트 대신 디코딩 과정에서 출력 분포를 직접 조정하는 방식을 제안합니다. Steering Vector Decoding (SVD)라는 경량 PEFT 호환 방법을 도입하여, 초기 워밍업 파인 튜닝 후 KL 발산 기울기를 통해 작업 관련 steering vector를 추출합니다. 이 벡터를 디코딩 과정에서 사용하여 모델의 출력 분포를 작업 분포에 가깝게 만듭니다. SVD는 전체 파인 튜닝의 1차 근사치와 동일하며, steering vector의 강도에 대한 전역 최적 해를 제공합니다. 다양한 작업과 벤치마크에서 SVD는 기존 PEFT 방법과 결합하여 multiple-choice 정확도를 최대 5점, open-ended truthfulness를 2점, commonsense 데이터셋에서 1-2점 향상시켰습니다.