每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

TReF-6:从单次演示中推断任务相关框架以实现一次性技能泛化

Created by
  • Haebom

作者

丁宇轩、王双歌、泰斯卡·菲茨杰拉德

TReF-6:基于单一演示的 6DoF 动作相关框架推理

大纲

本研究旨在解决机器人从单一演示中进行泛化的能力难题,重点关注缺乏可迁移且可解释的空间表征。TReF-6 提出了一种从单一轨迹推断简化的六自由度 (6DoF) 任务相关帧的方法。该方法从轨迹几何结构中识别影响点,定义局部帧的原点,并利用这些影响点参数化动态运动基元 (DMP)。推断出的帧通过视觉语言模型进行语义链接,并使用 Grounded-SAM 在新环境中进行定位,从而实现功能一致的技能泛化。我们在模拟中验证了 TReF-6,证明了其对轨迹噪声的鲁棒性。我们为现实世界的操控任务部署了一个端到端的流程,证明它支持一次性模仿学习,能够在不同的对象配置中保留任务意图。

Takeaways,Limitations

Takeaways:
通过从单个演示中推断 6DoF 任务相关框架来提高机器人的泛化能力。
利用 DMP 捕捉任务的空间结构并提供超越起始目标模仿的能力。
利用视觉语言模型和 Grounded-SAM 确保在新环境中的适应性。
通过展示模拟和现实环境中的有效性来证明实用性。
Limitations:
摘要中没有明确提及具体的 Limitations。
👍