Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Evaluating Embedding Generalization: How LLMs, LoRA, and SLERP Shape Representational Geometry

Created by
  • Haebom
Category
Empty

저자

Siyaxolisa Kabane

개요

본 논문은 대규모 언어 모델(LLM)과 비 LLM 인코더를 사용하여 생성된 밀집 텍스트 임베딩의 일반화 속성을 조사하고, 작업별 적응(예: LoRA)으로 인한 과도한 전문화를 구형 선형 보간법(SLERP) 모델 병합이 완화하는 정도를 연구한다. 모델은 짧은 수치 시퀀스를 임베딩하고 잘 정의된 수론적 속성에 따라 해당 시퀀스를 클러스터링하고 분류하는 능력에 대해 평가된다. 실험은 비 LLM 인코더, LoRA를 사용하여 적응된 LLM 기반 인코더, 모델 수프 병합된 LoRA-적응 LLM, SLERP 병합된 LoRA-적응 LLM을 포함한 네 가지 모델 계열을 비교한다.

시사점, 한계점

LLM 기반 백본은 고차원, 구성적인 수치 패턴을 더 잘 포착하는 임베딩을 생성하지만, 균형 잡힌 일반화를 저해하는 어댑터 지배 현상이 발생하기 쉽다.
SLERP 병합은 모델 수프 병합 또는 병합되지 않은 모델에 비해 클러스터링 분리성 및 견고성 측면에서 우수한 트레이드 오프를 제공하며, 대부분의 작업적 이점을 유지하면서 기본 모델 구조를 일관되게 복구한다.
kmeans 레이블을 사용하여 임베딩이 테스트 대상 외의 다른 정보를 인코딩하는지 분석한다.
👍