Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Implicit Federated In-context Learning For Task-Specific LLM Fine-Tuning

Created by
  • Haebom
Category
Empty

저자

Dongcheng Li, Junhan Chen, Aoxiang Zhou, Chunpei Li, Youquan Xian, Peng Liu, Xianxian Li

개요

대규모 언어 모델의 발전에 따라 공공 데이터 고갈 위험이 발생하여, 조직 내 개인 데이터를 활용하여 모델 성능을 향상시키는 것이 중요해졌습니다. 본 논문은 연합 학습과 모델 미세 조정을 결합하여 훈련 가능한 매개변수 수를 줄이는 동시에 고차원 특징 공간 처리에 따른 높은 계산 오버헤드를 해결하기 위해 Implicit Federated In-Context Learning (IFed-ICL) 프레임워크를 제안합니다. IFed-ICL은 연합 학습에서 영감을 받아, 클라이언트의 로컬 컨텍스트 예제를 암시적 벡터 표현으로 변환하여 추론 단계에서 분산 협업 계산을 가능하게 하고, 모델 잔여 스트림을 주입하여 성능을 향상시킵니다. 실험 결과 IFed-ICL은 여러 텍스트 분류 작업에서 뛰어난 성능을 보였으며, 기존의 미세 조정 방식에 비해 매개변수 업데이트를 대폭 줄이고, 연합 학습에서 데이터 전송 및 클라이언트 측 계산을 감소시켜 특정 작업에 대한 모델 성능을 효율적으로 향상시켰습니다.

시사점, 한계점

시사점:
개인 데이터를 활용한 대규모 언어 모델 성능 향상 가능성 제시
연합 학습과 컨텍스트 학습을 결합한 새로운 분산 협업 패러다임 제시
전통적인 미세 조정 방식의 계산 및 데이터 전송 부담 감소
다양한 텍스트 분류 작업에서 우수한 성능 입증
한계점:
논문에 구체적인 한계점 언급 없음 (Abstract에서 확인 불가)
👍