Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Accélération des hyperheuristiques avec la sélection d'opérateurs de chaîne de Markov et l'opérateur d'acceptation à seule détérioration

Created by
  • Haebom

Auteur

Abderrahim Bendahi, Benjamin Doerr, Adrien Fradin, Johannes F. Lutzeyer

Contour

Cet article propose deux algorithmes modifiés qui améliorent l'algorithme hyperheuristique d'acceptation de mouvement existant et démontrent des performances accrues sur diverses fonctions de référence. La première modification introduit une chaîne de Markov simple à deux états pour la sélection des opérateurs d'acceptation d'amélioration seule et d'acceptation de tout mouvement, réduisant le temps d'exécution de la fonction Jump$_m$ de $\Omega(n^{2m-1})$ à $O(n^{m+1})$. La seconde modification remplace l'opérateur d'acceptation de tout mouvement par un opérateur n'autorisant que la détérioration, ce qui, bien que contre-intuitif, réduit le temps d'exécution de la fonction Jump à $O(n^3 \log n)$ quelle que soit la taille de l'écart. Nous prouvons que l'algorithme proposé garantit un temps d'exécution de $O(n^{k+1} \log n)$ pour la classe de référence SEQOPT$_k$ (la classe des fonctions à multiples optima locaux consécutifs). La classe SEQOPT$_k$ inclut les fonctions Jump$_m$ et Cliff$_d$.

Takeaways, Limitations

Takeaways:
Nous présentons deux modifications efficaces qui améliorent considérablement les performances des algorithmes hyper-heuristiques d’acceptation de mouvement existants.
Réduit considérablement les temps d'exécution des problèmes difficiles tels que les fonctions Jump$_m$ et Cliff$_d$.
En démontrant l’utilité des opérateurs qui ne permettent que la détérioration, nous présentons une nouvelle perspective sur la conception des algorithmes d’optimisation conventionnels.
La classe de référence SEQOPT$_k$ récemment proposée peut servir de référence utile pour évaluer les performances de divers algorithmes d'optimisation.
Limitations:
Les performances de l’algorithme proposé peuvent être limitées à certains types de fonctions de référence.
Des recherches supplémentaires sont nécessaires pour déterminer l’applicabilité et la généralisabilité aux problèmes du monde réel.
Des recherches supplémentaires pourraient être nécessaires sur le paramétrage et l’optimisation des chaînes de Markov.
La classe SEQOPT$_k$ peut ne pas couvrir de manière exhaustive tous les types de problèmes.
👍