6G 네트워크는 사용자의 다양한 추론 요구 사항을 충족하기 위해 주문형 AI 모델 다운로드를 지원하도록 구상됩니다. 엣지 노드에 모델을 사전 캐싱하여 사용자는 장치 내 AI 추론을 위해 요청된 모델을 낮은 대기 시간으로 검색할 수 있습니다. 그러나 현재 AI 모델의 상당한 크기는 제한된 저장 용량에서 엣지 캐싱에 상당한 어려움을 야기하며, 무선 채널을 통해 이기종 모델을 동시에 제공하는 데에도 어려움을 줍니다. 이러한 문제를 해결하기 위해, 사전 훈련된 공유 모델에서 고정된 매개변수를 사용하여 작업별 모델을 미세 조정하는 일반적인 관행에서 파생된 매개변수 재사용성을 활용하는 세분화된 AI 모델 캐싱 및 다운로드 시스템을 제안합니다. 이 시스템은 엣지 노드에서 모델 매개변수 블록(PB)을 선택적으로 캐싱하여 서로 다른 캐싱된 모델 간의 재사용 가능한 매개변수의 중복 저장을 제거합니다. 또한, 코디네이티드 멀티포인트(CoMP) 방송을 통합하여 재사용 가능한 PB를 여러 사용자에게 동시에 제공함으로써 다운링크 스펙트럼 활용도를 향상시킵니다. 이러한 배열에서 PB 캐싱, 마이그레이션(엣지 노드 간), 방송 빔포밍을 공동으로 최적화하여 모델 다운로드 지연 최소화 문제를 공식화합니다. 이 문제를 해결하기 위해 엣지 노드가 자신의 행동 간의 상호 영향을 명시적으로 학습하여 협업을 용이하게 하는 분산 멀티 에이전트 학습 프레임워크를 개발합니다. 또한, 예측 모델을 통해 합성 훈련 샘플을 적응적으로 생성하여 샘플 효율성을 높이고 정책 학습을 가속화하는 데이터 증대 접근 방식이 제안되었습니다. 이론적 분석과 시뮬레이션 실험 모두 제안된 학습 프레임워크의 우수한 수렴 성능을 검증합니다.