Este artículo presenta una síntesis de investigaciones recientes en el campo de la interpretabilidad mecánica (IM), que explora el funcionamiento interno de los modelos lingüísticos a gran escala (LLM). Cuestionamos la visión convencional de que los LLM se basan únicamente en estadísticas superficiales y argumentamos que desarrollan estructuras internas funcionalmente similares a las que capturan las conexiones. Para ello, presentamos una concepción de la comprensión en tres etapas (comprensión conceptual, comprensión del estado del mundo y comprensión basada en principios) y explicamos cómo los LLM desarrollan la comprensión en cada etapa. Sin embargo, enfatizamos que la comprensión de los LLM es fundamentalmente diferente de la comprensión humana debido al fenómeno de los "mecanismos paralelos", y concluimos que, en lugar de debatir si los LLM comprenden, deberíamos centrarnos en estudiar su forma única de pensar y la formación de conceptos que se ajusten a ellos.