Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Evaluación de la idoneidad de las ontologías para la tarea de generación de preguntas

Created by
  • Haebom

Autor

Samah Alkhuzaey, Floriana Grasso, Terry R. Payne, Valentina Tamma

Describir

Este artículo presenta los requisitos y las métricas específicas de cada tarea para evaluar la ontología en la generación automática de preguntas (AQG) en entornos educativos. Si bien investigaciones previas han demostrado que la calidad de la ontología influye en la eficacia de la AQG, se carece de una investigación exhaustiva sobre qué características de la ontología influyen en la AQG y cómo la afectan. Por lo tanto, este artículo utiliza la metodología ROMEO para derivar métricas de evaluación de ontologías basadas en preguntas generadas mediante la evaluación de expertos. Posteriormente, las métricas se aplican a las ontologías utilizadas en estudios previos para validar los hallazgos. Los resultados del análisis demuestran que las características de la ontología influyen significativamente en la eficacia de la AQG y que el rendimiento varía entre ontologías. Esto resalta la importancia de evaluar la calidad de la ontología en las tareas de AQG.

Takeaways, Limitations

Takeaways:
Contribuimos a la evaluación cualitativa de ontologías presentando un marco sistemático (ROMEO) para la evaluación de ontologías e indicadores específicos de tareas para AQG.
Al demostrar empíricamente el impacto de las características de la ontología en el rendimiento de AQG, proporcionamos información importante para el desarrollo del sistema AQG.
Proporcionamos un método para evaluar eficazmente la idoneidad AQG de una ontología utilizando los indicadores presentados.
Limitations:
Se necesitan más investigaciones para determinar la generalización de los indicadores presentados.
Los resultados de la evaluación pueden limitarse a un modelo de generación de preguntas específico.
Tal vez falte un análisis exhaustivo de los diferentes tipos de ontologías.
👍