Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Structure-Agnostic Co-Tuning Framework for LLMs and SLMs in Cloud-Edge Systems

Created by
  • Haebom
Category
Empty

저자

Yuze Liu, Yunhan Wang, Tiehua Zhang, Zhishu Shen, Cheng Peng, Libing Wu, Feng Xia, Jiong Jin

Co-PLMs: A Novel Co-tuning Framework for Collaborative Training of Large and Small Language Models

개요

본 논문은 대규모 언어 모델(LLM) 기반 지능형 애플리케이션의 증가로 인해 대역폭 제한적인 클라우드 서버가 사용자 데이터 프라이버시를 훼손하지 않으면서 광범위한 LLM 워크로드를 실시간으로 처리하기 어려워진 문제를 해결하고자 한다. 이를 위해 클라우드 기반 LLM과 모바일 엣지 디바이스의 소규모 언어 모델(SLM)을 통합하는 클라우드-엣지 컨소시엄을 구축하고, 추론 성능을 향상시키기 위한 협력적 훈련 메커니즘을 설계하는 연구가 진행되고 있다. 본 연구에서는 이종 SLM 아키텍처와 SLM의 교차 도메인 배포로 인한 성능 향상의 어려움을 해결하기 위해, 구조에 구애받지 않는 상호 학습 과정을 통합하여 이종 언어 모델 간 지식 교환을 실현하는 새로운 공동 튜닝 프레임워크인 Co-PLMs를 제안한다. Co-PLMs는 증류된 프록시 모델(DPM)을 브리지로 활용하여, 이종 서버 기반 LLM과 온디바이스 SLM 간 협력적 훈련을 가능하게 하면서 각 장치의 도메인별 통찰력을 유지한다. 실험 결과, Co-PLMs는 최첨단 방법론보다 우수한 성능을 보였으며, Rouge-L에서 평균 5.38%, EM에서 4.88% 증가를 달성했다.

시사점, 한계점

시사점:
LLM과 SLM의 협력적 훈련을 위한 새로운 프레임워크 제시 (Co-PLMs).
이종 언어 모델 간 지식 교환을 위한 구조 무관 상호 학습 통합.
DPM을 활용하여 협력적 훈련을 가능하게 하고, 도메인별 통찰력 유지.
최첨단 방법론 대비 우수한 성능 입증.
한계점:
구체적인 한계점에 대한 논문 내 언급 없음.
👍