본 논문은 대규모 언어 모델(LLM) 기반 지능형 애플리케이션의 증가로 인해 대역폭 제한적인 클라우드 서버가 사용자 데이터 프라이버시를 훼손하지 않으면서 광범위한 LLM 워크로드를 실시간으로 처리하기 어려워진 문제를 해결하고자 한다. 이를 위해 클라우드 기반 LLM과 모바일 엣지 디바이스의 소규모 언어 모델(SLM)을 통합하는 클라우드-엣지 컨소시엄을 구축하고, 추론 성능을 향상시키기 위한 협력적 훈련 메커니즘을 설계하는 연구가 진행되고 있다. 본 연구에서는 이종 SLM 아키텍처와 SLM의 교차 도메인 배포로 인한 성능 향상의 어려움을 해결하기 위해, 구조에 구애받지 않는 상호 학습 과정을 통합하여 이종 언어 모델 간 지식 교환을 실현하는 새로운 공동 튜닝 프레임워크인 Co-PLMs를 제안한다. Co-PLMs는 증류된 프록시 모델(DPM)을 브리지로 활용하여, 이종 서버 기반 LLM과 온디바이스 SLM 간 협력적 훈련을 가능하게 하면서 각 장치의 도메인별 통찰력을 유지한다. 실험 결과, Co-PLMs는 최첨단 방법론보다 우수한 성능을 보였으며, Rouge-L에서 평균 5.38%, EM에서 4.88% 증가를 달성했다.