본 논문은 에지 디바이스에서 대규모 언어 모델(LLM)을 운영하는 데 있어 제한된 통신 대역폭과 계산 및 메모리 비용 문제를 해결하기 위해, 클라우드 지원 원격 미세 조정의 효율성을 높이는 AirLLM을 제안합니다. AirLLM은 계층적 확산 정책 프레임워크를 사용하여 LoRA(Low-Rank Adaptation)의 계급 구성을 구조화된 행동 벡터로 모델링하고, 근접 정책 최적화(PPO) 에이전트와 잡음 제거 확산 암시적 모델(DDIM)을 결합하여 무선 상태와 언어적 복잡성을 관찰하여 작업 및 채널에 적응적인 계급 벡터를 생성합니다. PPO 보상과의 정렬을 유지하기 위해 Classifier-Free Guidance(CFG) 패러다임 하에 DDIM을 훈련합니다. 실험 결과, AirLLM은 다양한 신호 대 잡음비(SNR) 환경에서 미세 조정 성능을 향상시키면서 전송 비용을 크게 줄이는 것을 보여줍니다.