每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

在多小区边缘网络中通过协调多点广播实现细粒度 AI 模型缓存和下载

Created by
  • Haebom

作者

杨付、秦鹏、张悦悦、程宝、卢军、王一飞

大纲

6G 网络旨在支持按需下载 AI 模型,以满足用户多样化的推理需求。通过在边缘节点预缓存模型,用户可以低延迟地检索所需模型,以便在设备上进行 AI 推理。然而,由于存储容量有限,当前 AI 模型的庞大规模给边缘缓存带来了巨大挑战,同时通过无线信道同时提供异构模型也极具挑战性。为了应对这些挑战,我们提出了一个细粒度的 AI 模型缓存和下载系统,该系统利用参数可重用性,这种可重用性源于使用预训练共享模型中的固定参数对特定任务模型进行微调的常见做法。该系统选择性地在边缘节点缓存模型参数块 (PB),从而消除了不同缓存模型之间可重用参数的冗余存储。此外,通过结合协调多点 (CoMP) 广播,我们通过同时向多个用户提供可重用的 PB 来提高下行链路频谱利用率。在这种方案中,我们通过联合优化 PB 缓存、迁移(边缘节点之间)和广播波束成形来最小化模型下载延迟。为了解决这个问题,我们开发了一个分布式多智能体学习框架,通过允许边缘节点明确地学习其动作之间的相互作用来促进协作。此外,我们提出了一种数据增强方法,该方法使用预测模型自适应地生成合成训练样本,以提高样本效率并加速策略学习。理论分析和仿真实验均证明了该学习框架的卓越收敛性能。

Takeaways, Limitations

Takeaways:
一项关于粒度缓存和下载系统的提案,旨在最大限度地减少 AI 模型下载延迟
利用参数可重用性避免重复存储
通过 CoMP 广播提高下行链路频谱利用率
通过开发分布式多智能体学习框架促进协作。
通过数据增强方法提高学习效率
Limitations:
缺乏有关特定模型类型、数据集和网络环境的详细信息。
缺少提及在真实环境中的实施和性能验证。
缺乏对边缘节点计算资源限制的考虑
👍