Cet article propose un ordonnanceur basé sur un modèle de langage à grande échelle (LLM) et s'appuyant sur le framework ReAct pour résoudre les problèmes d'ordonnancement des tâches de calcul haute performance (HPC). Les méthodes heuristiques existantes (FCFS, SJF) et les techniques d'optimisation manquent d'adaptabilité aux charges de travail dynamiques et ne permettent pas d'optimiser simultanément plusieurs objectifs. L'ordonnanceur basé sur le LLM proposé utilise une mémoire tampon pour suivre l'historique de planification, améliore la prise de décision grâce au retour d'information en langage naturel et garantit la faisabilité et la sécurité grâce à un module de contrôle des contraintes. Des évaluations sur divers scénarios de charges de travail HPC réels utilisant O4-Mini d'OpenAI et Claude 3.7 d'Anthropic démontrent que l'ordonnanceur basé sur le LLM équilibre efficacement plusieurs objectifs et fournit une inférence transparente grâce au suivi du langage naturel. Il présente une excellente satisfaction des contraintes et s'adapte à diverses charges de travail sans apprentissage spécifique au domaine. Cependant, le compromis entre qualité d'inférence et surcharge de calcul reste un défi pour un déploiement en temps réel. Cet article est la première étude complète de l’application du LLM inférentiel à la planification HPC, démontrant son potentiel d’optimisation multi-objectifs tout en soulignant les limites de l’efficacité de calcul.