Delta Activations: A Representation for Finetuned Large Language Models
Created by
Haebom
저자
Zhiqiu Xu, Amish Sethi, Mayur Naik, Ser-Nam Lim
개요
본 논문은 다양한 작업과 도메인에 적응된 사후 훈련된 대규모 언어 모델(LLM)의 방대한 컬렉션을 생성하는 데 성공한 강력한 오픈소스 LLM의 등장에도 불구하고, 일관되지 않은 메타데이터와 비정형 저장소로 인해 이러한 모델을 탐색하고 이해하는 데 어려움이 있다는 점을 지적합니다. 이에 연구진은 기본 모델에 대한 내부 활성화의 변화를 측정하여 미세 조정된 모델을 벡터 임베딩으로 나타내는 방법인 델타 활성화(Delta Activations)를 제시합니다. 이 표현은 도메인과 작업별로 효과적인 클러스터링을 허용하여 모델 환경의 구조를 보여줍니다. 델타 활성화는 미세 조정 설정에 강건하고 미세 조정 데이터셋이 혼합될 때 덧셈 속성을 나타내는 등 바람직한 특성을 보여줍니다. 또한, 델타 활성화는 몇 번의 샷 미세 조정을 통해 작업을 임베딩할 수 있으며, 모델 선택 및 병합에 대한 추가적인 활용 가능성을 보여줍니다. 연구진은 델타 활성화가 공개적으로 사용 가능한 모델의 재사용 관행을 용이하게 하기를 기대합니다. 코드는 https://github.com/OscarXZQ/delta_activations 에서 확인할 수 있습니다.