Los modelos de lenguaje a gran escala (LLM) existentes basados en la Generación Aumentada por Recuperación (RAG) se limitan a interacciones estáticas de un solo turno y a un conjunto fijo de herramientas, lo que los hace inadecuados para entornos dinámicos como la atención médica y los hogares inteligentes. En este artículo, presentamos el Ajuste Dinámico de Contexto (DCT), un marco ligero que extiende RAG para admitir conversaciones de múltiples turnos y entornos de herramientas cambiantes sin necesidad de reentrenamiento. El DCT integra una caché de contexto basada en la atención para rastrear información histórica relevante, recuperación basada en LoRA para seleccionar dinámicamente herramientas específicas del dominio y una compresión de contexto eficiente para mantener las entradas dentro de las restricciones del contexto LLM. Experimentos de referencia sintéticos y en el mundo real muestran que el DCT mejora la precisión de la planificación en un 14 % y reduce las alucinaciones en un 37 %, a la vez que alcanza el rendimiento GPT-4 a un coste mucho menor. Además, el DCT se generaliza a herramientas nunca antes vistas, lo que permite asistentes de IA escalables y adaptables en diversos entornos dinámicos.