Los modelos de lenguaje a gran escala (LLM) han revolucionado la IA, pero aún tienden a cometer errores y a explorar rutas de inferencia improductivas. Las capacidades de autocorrección son esenciales para implementar LLM en aplicaciones críticas para la seguridad. Este estudio reveló una falla sistemática de los LLM a la hora de corregir errores en su propia salida, un fenómeno conocido como "puntos ciegos de autocorrección", donde los LLM corrigen con éxito errores idénticos en fuentes externas, pero no los corrigen. Para investigar esto, presentamos el Banco de Autocorrección, un marco de evaluación que mide este fenómeno mediante la inyección controlada de errores en tres niveles de complejidad. Al probar 14 modelos de código abierto no inferenciales, observamos una tasa promedio de puntos ciegos del 64,5 %. Diversas evidencias sugieren que esta limitación puede estar influenciada por los datos de entrenamiento. En concreto, las demostraciones en humanos rara vez incluyen secuencias de corrección de errores, mientras que los modelos entrenados con aprendizaje de refuerzo (RL) aprenden a corregir errores mediante la retroalimentación de la salida. Cabe destacar que la adición de un aviso mínimo de "espera" redujo los puntos ciegos en un 89,3 %, lo que sugiere una posible capacidad que requiere activación. Este estudio destaca limitaciones importantes que pueden verse influenciadas por las distribuciones de entrenamiento y presenta enfoques prácticos para mejorar la confiabilidad de LLM.