Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Federated Data-Efficient Instruction Tuning for Large Language Models

Created by
  • Haebom

저자

Zhen Qin, Zhaomin Wu, Bingsheng He, Shuiguang Deng

개요

본 논문은 사전 훈련된 거대 언어 모델(LLM)의 명령어에 대한 반응성을 향상시키는 데 중요한 단계인 명령어 튜닝에 대해 다룹니다. 연합 학습(FL)은 클라이언트의 방대한 개인 명령어 데이터 활용을 돕고 데이터 다양성을 개선하여 LLM 튜닝에 효과적입니다. 기존의 연합 튜닝은 모든 로컬 데이터를 사용하여 과도한 계산 오버헤드와 로컬 데이터 과적합을 유발하지만, 중앙 집중식 데이터 효율적인 솔루션은 개인 정보 보호 문제로 인해 FL에 적합하지 않습니다. 본 논문에서는 FedHDS라는 연합 데이터 효율적인 명령어 튜닝 방법을 제시합니다. FedHDS는 에지 측 데이터의 대표적인 하위 집합을 사용하여 LLM을 튜닝하여 원시 데이터를 공유하지 않고 클라이언트 내부 및 클라이언트 간의 데이터 중복성을 줄입니다. 다양한 LLM, 데이터셋 및 분할을 사용한 실험 결과, FedHDS는 최첨단 전체 데이터 연합 명령어 튜닝 방법보다 미지의 작업에서 Rouge-L을 평균 10.72% 향상시키는 동시에 1.5% 미만의 데이터 샘플을 사용하여 훈련 효율을 최대 10배까지 향상시키는 것을 보여줍니다.

시사점, 한계점

시사점:
연합 학습 환경에서 데이터 효율적인 명령어 튜닝을 위한 새로운 방법(FedHDS) 제시
기존 방법 대비 Rouge-L 성능 개선 및 훈련 효율 향상 (데이터 사용량 감소)
개인 정보 보호 우려 해소 및 데이터 다양성 확보
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 연구 필요
다양한 LLM 및 데이터셋에 대한 더욱 광범위한 실험 필요
실제 환경 적용 시 발생할 수 있는 문제점 및 해결 방안에 대한 추가적인 연구 필요
👍