Este artículo destaca que la recuperación de información en modelos lingüísticos a gran escala (LLM) está estrechamente vinculada a la generación, no a la mera recuperación. Contrariamente a la creencia común de que los contextos extensos mejoran el rendimiento de la recuperación, el impacto de la interferencia intracontextual no se ha explorado a fondo. Aplicando el paradigma de interferencia proactiva (IP) de la ciencia cognitiva a los LLM, analizamos el fenómeno en el que la información previa interfiere con la recuperación de información nueva. Utilizando un método de evaluación IP-LLM, transmitimos secuencialmente actualizaciones clave-valor semánticamente relacionadas y consultamos solo el último valor. Nuestros experimentos mostraron que, a pesar de que el valor final precedió inmediatamente a la consulta, la precisión de recuperación del LLM se acercó a cero logarítmicamente a medida que se acumulaba la interferencia. Esto se debió a errores en la recuperación de valores previamente sobrescritos. Los intentos de mitigar la interferencia mediante ingeniería rápida tuvieron un éxito limitado. En conclusión, este estudio demuestra una limitación fundamental en la capacidad de los LLM para aislar la interferencia y manipular la información con flexibilidad, lo que sugiere un cuello de botella en la memoria de trabajo más allá del simple acceso al contexto. Por lo tanto, se necesitan enfoques que mejoren la capacidad del modelo para suprimir contenido irrelevante durante la recuperación.