En este artículo, investigamos si la dinámica de capa-tiempo de los modelos Transformer pre-entrenados proporciona poder predictivo adicional más allá de la distribución de probabilidad de salida del modelo para predecir el procesamiento humano en tiempo real a través de cinco estudios. Yendo más allá de los enfoques existentes que predicen medidas cognitivas humanas, como juicios fuera de línea o procesamiento en tiempo real, a partir de las salidas del modelo, exploramos la similitud de las estrategias de procesamiento entre humanos y modelos mediante el análisis del procesamiento interno de los propios modelos. Nuestros resultados en todos los dominios y modalidades demuestran que la dinámica de capa-tiempo de los modelos Transformer predice mejor el procesamiento humano, lo que sugiere que el procesamiento de Transformers entrenados para propósitos generales (p. ej., predecir el siguiente token, reconocer imágenes) puede ser facilitado o dificultado por características similares del procesamiento humano. Esto sugiere una nueva forma de usar los modelos de IA como modelos de procesamiento explícito, en lugar de simples mapeos de estímulo-respuesta.