Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ImitDiff: Transferring Foundation-Model Priors for Distraction Robust Visuomotor Policy

Created by
  • Haebom
Category
Empty

저자

Yuhang Dong, Haizhou Ge, Yupei Zeng, Jiangning Zhang, Beiwen Tian, Hongrui Zhu, Yufei Jia, Ruixiang Wang, Zhucun Xue, Guyue Zhou, Longhua Ma, Guanzhong Tian

개요

ImitDiff는 시각적 시연으로부터 조작 기술을 효율적으로 습득하는 로봇을 위한 확산 기반 모방 학습 정책입니다. 복잡한 환경과 시각적 방해가 증가하는 상황에서, 사전 훈련된 비전-언어 기반 모델을 활용하여 고차원 지침을 픽셀 수준의 시각적 의미 마스크로 변환합니다. 이 마스크는 저해상도 관찰에서 전체 컨텍스트를, 고해상도 관찰에서 미세한 지역 특징을 캡처하는 이중 해상도 인식 파이프라인을 안내하여 정책이 작업 관련 영역에 집중하도록 합니다. 또한, 시각적 의미 조건과 실시간 동작 생성을 연결하는 일관성 기반 확산 변환기 동작 헤드를 도입했습니다. 실험 결과, ImitDiff는 복잡한 환경과 시각적 방해가 증가하는 상황에서 최첨단 비전-언어 조작 프레임워크 및 시각-운동 모방 학습 정책보다 우수한 성능을 보였습니다. 특히, 새로운 객체와 시각적 방해가 포함된 제로샷 설정에서 강력한 일반화 성능을 보였고, 일관성 기반 동작 헤드는 경쟁력 있는 성공률을 유지하면서 추론 속도를 크게 향상시켰습니다.

시사점, 한계점

시사점:
복잡한 환경과 시각적 방해 속에서 로봇 조작 성능 향상.
제로샷 설정에서 새로운 객체와 시각적 방해에 대한 일반화 능력 향상.
일관성 기반 동작 헤드를 통한 빠른 추론 속도 구현.
한계점:
논문에서 구체적인 한계점이 언급되지 않음. (논문의 요약에서 한계점을 찾을 수 없음)
👍