Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Transformaciones de modelos complejos mediante aprendizaje de refuerzo con guía humana incierta

Created by
  • Haebom

Autor

Kyanna Dagenais, Istvan David

Describir

Este artículo presenta un marco basado en aprendizaje por refuerzo (RL) para el desarrollo eficiente de secuencias complejas de transformación de modelos (MT) en ingeniería basada en modelos. Las secuencias MT complejas son necesarias para diversos problemas, como la sincronización de modelos, la recuperación automática de modelos y la exploración del espacio de diseño. Sin embargo, su desarrollo manual es propenso a errores y complejo. En este artículo, proponemos un enfoque y un marco técnico que permite a un agente de RL encontrar secuencias MT óptimas mediante el asesoramiento del usuario, que puede incluir incertidumbre. Mapeamos MT definidos por el usuario con primitivas de RL y las ejecutamos como programas de RL para encontrar secuencias MT óptimas. Los resultados experimentales demuestran que, incluso en condiciones de incertidumbre, el asesoramiento del usuario mejora significativamente el rendimiento del RL, contribuyendo a un desarrollo más eficiente de MT complejas. Este estudio avanza en la metodología de ingeniería con intervención humana basada en RL al abordar el equilibrio entre la certeza y la oportunidad del asesoramiento del usuario.

Takeaways, Limitations

Takeaways:
Demostramos que un marco basado en RL que incorpora consejos de usuario inciertos puede mejorar la eficiencia en el desarrollo de secuencias de transformación de modelos complejos.
Presentamos un enfoque novedoso para aplicar eficazmente el RL a las metodologías de ingeniería con intervención humana.
Proporcionamos información sobre el diseño de sistemas prácticos basados en RL al considerar el equilibrio entre la certeza y el momento oportuno del asesoramiento al usuario.
Limitations:
Se requiere mayor investigación para determinar la generalidad y escalabilidad del marco propuesto. Es necesario verificar su aplicabilidad a diversos tipos de modelos y problemas.
Es necesario un análisis más profundo de los cambios en el rendimiento en función de la calidad y cantidad del asesoramiento de los usuarios.
Se necesita más investigación para determinar su aplicabilidad y practicidad en entornos de ingeniería reales.
👍