En este artículo, proponemos un marco de recuperación centrada en objetos (OCR) para abordar los desafíos de las situaciones fuera de distribución (OOD) en el aprendizaje de políticas visomotoras. Mientras que los métodos actuales de replicación de acciones (BC) dependen en gran medida de una gran cantidad de datos etiquetados y fallan en condiciones espaciales desconocidas, la OCR aprende una política de recuperación que consiste en una política inversa inferida a partir de los gradientes de la variedad de puntos clave del objeto de los datos de entrenamiento originales sin recopilar datos adicionales. Esta política de recuperación actúa como un simple complemento a cualquier política de BC visomotora de referencia, independientemente del método específico, y guía al sistema de vuelta a la distribución de entrenamiento para garantizar el éxito de la tarea incluso en situaciones OOD. Tanto en simulaciones como en experimentos con robots reales, demostramos una mejora de hasta un 77,7 % con respecto a la política de referencia en OOD, y también demostramos la capacidad de la OCR para recopilar demostraciones de forma autónoma para el aprendizaje continuo. Argumentamos que este marco representa un avance hacia la mejora de la robustez de las políticas visomotoras en entornos reales.