Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Delta Activations: A Representation for Finetuned Large Language Models

Created by
  • Haebom

저자

Zhiqiu Xu, Amish Sethi, Mayur Naik, Ser-Nam Lim

개요

본 논문은 다양한 작업과 도메인에 적응된 사후 훈련된 대규모 언어 모델(LLM)의 방대한 컬렉션을 생성하는 데 성공한 강력한 오픈소스 LLM의 등장에도 불구하고, 일관되지 않은 메타데이터와 비정형 저장소로 인해 이러한 모델을 탐색하고 이해하는 데 어려움이 있다는 점을 지적합니다. 이에 연구진은 기본 모델에 대한 내부 활성화의 변화를 측정하여 미세 조정된 모델을 벡터 임베딩으로 나타내는 방법인 델타 활성화(Delta Activations)를 제시합니다. 이 표현은 도메인과 작업별로 효과적인 클러스터링을 허용하여 모델 환경의 구조를 보여줍니다. 델타 활성화는 미세 조정 설정에 강건하고 미세 조정 데이터셋이 혼합될 때 덧셈 속성을 나타내는 등 바람직한 특성을 보여줍니다. 또한, 델타 활성화는 몇 번의 샷 미세 조정을 통해 작업을 임베딩할 수 있으며, 모델 선택 및 병합에 대한 추가적인 활용 가능성을 보여줍니다. 연구진은 델타 활성화가 공개적으로 사용 가능한 모델의 재사용 관행을 용이하게 하기를 기대합니다. 코드는 https://github.com/OscarXZQ/delta_activations 에서 확인할 수 있습니다.

시사점, 한계점

시사점:
미세 조정된 LLM을 효과적으로 표현하고 비교하는 새로운 방법인 델타 활성화를 제시합니다.
도메인 및 작업별로 LLM을 클러스터링하여 모델 탐색 및 이해를 용이하게 합니다.
모델 선택 및 병합에 활용 가능성을 제시합니다.
공개적으로 사용 가능한 LLM의 재사용을 촉진할 수 있습니다.
한계점:
델타 활성화의 성능이 다양한 LLM 아키텍처와 미세 조정 설정에 대해 얼마나 일반화될 수 있는지에 대한 추가적인 연구가 필요합니다.
특정 작업 또는 도메인에 대한 델타 활성화의 해석 가능성 및 신뢰성에 대한 추가적인 분석이 필요합니다.
제안된 방법의 확장성 및 계산 비용에 대한 추가적인 평가가 필요합니다.
👍