Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

ÉLicitation des préférences pour l'optimisation combinatoire multi-objectif avec apprentissage actif et estimation du maximum de vraisemblance

Created by
  • Haebom

Auteur

Marianne Defresne, Jayanta Mandi, Tias Guns

Contour

Cet article aborde un problème d'optimisation combinatoire concret impliquant de multiples objectifs contradictoires, tels que le prix, la qualité du produit et la durabilité. Bien qu'il existe des méthodes performantes en termes de calcul pour agréger plusieurs objectifs en une seule fonction objective (par exemple, une combinaison linéaire), prédéfinir les pondérations de ces combinaisons linéaires est complexe. Des méthodes d'apprentissage interactif demandant aux utilisateurs de comparer des solutions candidates sont une alternative prometteuse. Les principaux défis consistent à générer rapidement des solutions candidates, à apprendre une fonction objective conduisant à des solutions de haute qualité et à minimiser les interactions utilisateur. Cet article propose une méthode basée sur le cadre d'élicitation constructive des préférences (CPE) qui améliore trois attributs : la vitesse d'interaction, les performances d'apprentissage et le nombre d'interactions utilisateur. Pour améliorer la vitesse d'interaction, nous utilisons un pool de solutions (relaxé). Pour améliorer les performances d'apprentissage, nous utilisons l'estimation par maximum de vraisemblance du modèle de préférence Bradley-Terry. Pour réduire le nombre d'interactions utilisateur, nous utilisons une fonction d'acquisition basée sur un ensemble inspirée de l'apprentissage actif. Des expériences sur des tâches de configuration de PC et des problèmes de routage multi-instances réalistes démontrent que notre méthode permet une sélection de requêtes plus rapide, moins de requêtes et des solutions combinatoires de meilleure qualité que les méthodes CPE existantes.

Takeaways, Limitations

Takeaways:
Une méthode d’apprentissage interactive efficace pour les problèmes d’optimisation combinatoire multi-objectifs est présentée.
Amélioration de la vitesse d'interaction, des performances d'apprentissage et du nombre d'interactions utilisateur dans le cadre CPE.
A démontré des performances supérieures par rapport aux méthodes existantes dans des problèmes réels (configuration PC, routage multi-instances).
Utilisation efficace du modèle Bradley-Terry et des fonctions d’acquisition basées sur l’ensemble.
Limitations:
Des recherches supplémentaires sont nécessaires sur les performances de généralisation de la méthode proposée.
La vérification de l’applicabilité est requise pour différents types de problèmes d’optimisation combinatoire.
Dépendance à la précision du modèle de préférence de l'utilisateur.
Une évaluation de l’évolutivité des problèmes à grande échelle est nécessaire.
👍