본 논문은 다양한 시각 환경에서 강건한 비전 기반 조작 정책을 학습하는 문제를 다룬다. 기존 방법들은 점군이나 깊이 정보와 같은 불변 표현에 의존하거나, 시각적 영역 무작위화 및/또는 대규모 시각적으로 다양한 데이터셋을 통해 일반화를 강제하는 경향이 있었다. 본 논문에서는 분리된 표현 학습과 연관 기억 원리를 결합하여 시각적 분포 변화에 강건한 비전 기반 강화 학습 정책을 구현하고, 이를 시뮬레이션과 실제 하드웨어 모두에서 시각적 섭동에 대한 제로샷 적응성을 보여준다. 또한, 이 접근 방식을 모방 학습(특히 Diffusion Policy)으로 확장하여 최첨단 모방 학습 방법에 비해 시각적 일반화에서 상당한 성능 향상을 보였다. 마지막으로, 모델 등변성 문헌에서 차용한 새로운 기법을 통해 훈련된 신경망 정책을 2D 평면 회전에 불변하도록 변환하여 시각적으로 강건할 뿐만 아니라 특정 카메라 섭동에도 탄력적으로 만든다. 이는 실세계 배포의 복잡성과 역동적인 특성에 강건하고 즉시 적용 가능한 조작 정책을 향한 중요한 진전이다.