Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

ÉValuation de l'efficacité du raisonnement basé sur LLM pour la planification de tâches HPC multi-objectifs

Created by
  • Haebom

Auteur

Prachi Jadhav, Hongwei Jin, Ewa Deelman, Prasanna Balaprakash

Contour

Cet article propose un ordonnanceur basé sur un modèle de langage à grande échelle (LLM) et s'appuyant sur le framework ReAct pour résoudre les problèmes d'ordonnancement des tâches de calcul haute performance (HPC). Les méthodes heuristiques existantes (FCFS, SJF) et les techniques d'optimisation manquent d'adaptabilité aux charges de travail dynamiques et ne permettent pas d'optimiser simultanément plusieurs objectifs. L'ordonnanceur basé sur le LLM proposé utilise une mémoire tampon pour suivre l'historique de planification, améliore la prise de décision grâce au retour d'information en langage naturel et garantit la faisabilité et la sécurité grâce à un module de contrôle des contraintes. Des évaluations sur divers scénarios de charges de travail HPC réels utilisant O4-Mini d'OpenAI et Claude 3.7 d'Anthropic démontrent que l'ordonnanceur basé sur le LLM équilibre efficacement plusieurs objectifs et fournit une inférence transparente grâce au suivi du langage naturel. Il présente une excellente satisfaction des contraintes et s'adapte à diverses charges de travail sans apprentissage spécifique au domaine. Cependant, le compromis entre qualité d'inférence et surcharge de calcul reste un défi pour un déploiement en temps réel. Cet article est la première étude complète de l’application du LLM inférentiel à la planification HPC, démontrant son potentiel d’optimisation multi-objectifs tout en soulignant les limites de l’efficacité de calcul.

Takeaways, Limitations_

Takeaways:
Nous démontrons que la planification basée sur LLM peut équilibrer efficacement plusieurs objectifs (minimiser le temps de réponse, réduire la latence, optimiser l'utilisation des ressources et garantir l'équité) sur diverses charges de travail HPC.
Le suivi du langage naturel peut contribuer à garantir la transparence du processus de planification et à rendre la prise de décision plus facile à comprendre.
Il offre la flexibilité nécessaire pour s’adapter à diverses charges de travail sans apprentissage spécifique à un domaine.
Nous présentons l’application potentielle du LLM à des problèmes de planification complexes.
Limitations:
Le compromis entre la qualité d’inférence de LLM et la surcharge de calcul peut rendre difficile le déploiement en temps réel.
Le coût de calcul du LLM est important, nécessitant une analyse de l’efficacité économique pour une application dans des environnements HPC réels.
👍