Este artículo presenta una nueva tarea, CAPTURe (Counting Amodally for Patterns Through Unseen Regions), para evaluar la capacidad de un modelo para inferir patrones ocultos tras regiones ocluidas. CAPTURe requiere que el modelo cuente objetos infiriendo patrones ocultos tras regiones ocluidas, evaluando tanto el reconocimiento de patrones visuales como la inferencia. Consta de dos versiones: CAPTURe-real, que utiliza imágenes de objetos reales, y CAPTURe-synthetic, que utiliza imágenes generadas. Evaluamos cuatro potentes VLM (GPT-4o, Intern-VL2, Molmo y Qwen2-VL) y descubrimos que su rendimiento era bajo tanto en patrones ocluidos como no ocluidos, y que su rendimiento se deterioraba aún más cuando estaban ocluidos. Esto sugiere que los VLM tienen dificultades para inferir relaciones espaciales invisibles. Por el contrario, los humanos mostraron tasas de error muy bajas en CAPTURe. Proporcionar información adicional sobre la ubicación de los objetos ocluidos mejoró el rendimiento, lo que sugiere que los errores del modelo se deben tanto a su incapacidad para manejar la oclusión como a su dificultad para contar dentro de la imagen.