Este artículo argumenta que es crucial para los agentes de modelos de lenguaje a gran escala (LLM) reconocer el contexto a nivel de instancia (datos verificables y reutilizables relacionados con instancias de entorno específicas, como ubicaciones de objetos, recetas de creación y reglas locales) más allá de los manuales a nivel de entorno que definen interfaces y reglas de interacción con el entorno e instrucciones a nivel de tarea vinculadas a objetivos específicos. Esto se debe a que el éxito depende no solo del razonamiento sobre reglas globales o indicaciones de tareas, sino también de una toma de decisiones precisa y consistente basada en hechos. Presentamos un método agnóstico de tareas que define el problema de aprendizaje de contexto a nivel de instancia (ILCL) y prioriza de forma inteligente la siguiente tarea utilizando un bosque TODO compacto y la ejecuta mediante un bucle ligero de planificación-acción-extracción. Este método genera automáticamente documentos de contexto de alta precisión que pueden reutilizarse en tareas y agentes posteriores, compensando así el coste inicial de exploración. Los experimentos con TextWorld, ALFWorld y Crafter demuestran ganancias consistentes tanto en la tasa de éxito como en la eficiencia: la tasa de éxito promedio de TextWorld en ReAct aumentó del 37% al 95%, y la de IGE aumentó del 81% al 95%.