Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Transformations de modèles complexes par apprentissage par renforcement avec guidage humain incertain

Created by
  • Haebom

Auteur

Kyanna Dagenais, Istvan David

Contour

Cet article présente un cadre d'apprentissage par renforcement (RL) permettant de développer efficacement des séquences complexes de transformation de modèles (MT) en ingénierie basée sur les modèles. Des séquences MT complexes sont nécessaires pour résoudre divers problèmes, notamment la synchronisation de modèles, la récupération automatique de modèles et l'exploration de l'espace de conception. Cependant, leur développement manuel est source d'erreurs et complexe. Dans cet article, nous proposons une approche et un cadre technique permettant à un agent RL de trouver des séquences MT optimales grâce aux conseils de l'utilisateur, qui peuvent inclure une incertitude. Nous mappons les MT définies par l'utilisateur à des primitives RL et les exécutons comme des programmes RL pour trouver les séquences MT optimales. Les résultats expérimentaux démontrent que, même en cas d'incertitude, les conseils de l'utilisateur améliorent significativement les performances de l'RL, contribuant ainsi à un développement plus efficace de MT complexes. Cette étude fait progresser la méthodologie d'ingénierie humaine basée sur l'RL en abordant le compromis entre certitude et timing des conseils de l'utilisateur.

Takeaways, Limitations

Takeaways:
Nous démontrons qu’un cadre basé sur RL qui intègre des conseils d’utilisateurs incertains peut améliorer l’efficacité du développement de séquences de transformation de modèles complexes.
Nous présentons une nouvelle approche pour appliquer efficacement le RL aux méthodologies d’ingénierie impliquant l’humain.
Nous fournissons des informations sur la conception de systèmes pratiques basés sur le RL en considérant le compromis entre la certitude et le moment des conseils aux utilisateurs.
Limitations:
Des recherches complémentaires sont nécessaires pour déterminer la généralité et l'évolutivité du cadre proposé. Son applicabilité à divers types de modèles et de problèmes doit être vérifiée plus avant.
Une analyse plus approfondie des changements de performance en fonction de la qualité et de la quantité des conseils aux utilisateurs est nécessaire.
Des recherches supplémentaires sont nécessaires pour déterminer son applicabilité et sa praticabilité dans des environnements d’ingénierie réels.
👍