Cet article propose un cadre d'optimisation de la méta-planification (MPO) pour améliorer les performances de planification interactive des agents basés sur des modèles de langage à grande échelle (MLH). Contrairement aux méthodes existantes, qui souffrent d'hallucinations de planification et nécessitent un recyclage pour chaque nouvel agent, MPO intègre directement des conseils explicites via la méta-planification afin d'améliorer la capacité de planification de l'agent. Contrairement aux méthodes existantes qui s'appuient sur des connaissances complexes, MPO s'appuie sur des conseils généraux de haut niveau et optimise en continu le méta-plan en fonction des retours d'expérience de l'agent sur l'exécution de sa tâche. Les résultats expérimentaux sur deux tâches représentatives démontrent que MPO surpasse significativement les modèles de référence existants, offrant une solution prête à l'emploi qui améliore l'efficacité de l'exécution des tâches et leur généralisation à de nouveaux scénarios.