Este artículo propone un marco de optimización de metaplanificación (MPO) para mejorar el rendimiento de la planificación interactiva de agentes basados en modelos de lenguaje a gran escala (LLM). A diferencia de los métodos existentes, que presentan alucinaciones de planificación y requieren reentrenamiento para cada nuevo agente, MPO integra directamente la guía explícita mediante metaplanificación para mejorar la capacidad de planificación del agente. A diferencia de los métodos existentes que se basan en conocimiento complejo, MPO aprovecha la guía general de alto nivel y optimiza continuamente el metaplan basándose en la retroalimentación de la ejecución de tareas del agente. Los resultados experimentales en dos tareas representativas demuestran que MPO supera significativamente a los modelos de referencia existentes, proporcionando una solución lista para usar que mejora la eficiencia en la finalización de tareas y la generalización en nuevos escenarios.