Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Un algorithme basé sur le déploiement et une fonction de récompense pour l'allocation des ressources dans les processus métier

Created by
  • Haebom

Auteur

Jeroen Middelhuis, Zaharah Bukhsh, Ivo Adan, Remco Dijkman

Contour

Cet article aborde le problème d'allocation des ressources visant à minimiser le temps de cycle et à améliorer l'efficacité des processus métier. Nous soulignons les limites des méthodes existantes basées sur l'apprentissage par renforcement profond (DRL), qui sont inadaptées aux environnements métier dynamiques et peuvent apprendre des politiques sous-optimales en raison d'inadéquations entre les fonctions objectif et de récompense. Pour remédier à ces limites, nous proposons un algorithme DRL basé sur le déploiement et une fonction de récompense reflétant directement l'objectif de minimisation du temps de cycle. L'algorithme proposé améliore les politiques de manière itérative en évaluant les chemins d'exécution en fonction de diverses actions, éliminant ainsi la nécessité de concevoir manuellement une fonction de récompense. Les résultats expérimentaux démontrent que la méthode proposée apprend des politiques optimales dans six scénarios où des politiques optimales peuvent être calculées, et qu'elle est aussi performante, voire supérieure, que les meilleures méthodes heuristiques existantes dans des processus métier à échelle réaliste.

Takeaways, Limitations_

Takeaways:
Un nouvel algorithme d'allocation de ressources basé sur DRL adapté aux environnements de processus métier dynamiques est présenté.
Résoudre la difficulté de la conception d'une fonction de récompense en concevant une fonction de récompense directement liée à la fonction objectif.
Démontre des performances supérieures ou équivalentes aux méthodes existantes dans des processus commerciaux à échelle réaliste.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer l’évolutivité de l’algorithme proposé et ses performances de généralisation à des processus commerciaux complexes.
Une validation expérimentale supplémentaire est nécessaire pour différents types de processus commerciaux.
Les résultats expérimentaux sont limités aux scénarios dans lesquels des politiques optimales peuvent être calculées, ce qui nécessite un examen plus approfondi pour déterminer leur applicabilité aux processus commerciaux généraux.
👍