Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

CIKT: Un marco colaborativo e iterativo de seguimiento del conocimiento con grandes modelos de lenguaje

Created by
  • Haebom

Autor

Runze Li, Siyu Wu, Jun Wang, Wei Zhang

Describir

En este artículo, proponemos el Rastreo Iterativo Colaborativo de Conocimiento (CIKT), un novedoso marco que aprovecha los modelos de lenguaje a gran escala (LLM) para abordar los desafíos de explicabilidad, escalabilidad y modelado de dependencias de conocimiento complejas en los métodos existentes de Rastreo de Conocimiento (KT). CIKT emplea una arquitectura de dos componentes: un analista y un predictor. El analista genera perfiles de usuario dinámicos y explicables basados ​​en las respuestas pasadas de los estudiantes, y el predictor utiliza estos perfiles para predecir el rendimiento futuro. En su núcleo hay un bucle de optimización interactivo entre el analista y el predictor, en el que el analista se mejora iterativamente en función de la precisión de predicción del predictor, y el predictor se reentrena utilizando los perfiles mejorados. Los resultados de la evaluación en varios conjuntos de datos de entrenamiento muestran que CIKT mejora la precisión de la predicción, la explicabilidad a través de perfiles de usuario actualizados dinámicamente y mejora la escalabilidad.

Takeaways, Limitations

Takeaways:
Aborda eficazmente los problemas de explicabilidad, escalabilidad y modelado de dependencia de conocimiento complejo del método KT existente, que son Limitations.
Presentamos un método novedoso que mejora simultáneamente la precisión predictiva y la explicabilidad aprovechando LLM.
Proporciona información sobre el proceso de aprendizaje a través de perfiles de usuario actualizados dinámicamente.
Demuestra un rendimiento excelente en varios conjuntos de datos de entrenamiento.
Limitations:
Posible aumento de los costos computacionales debido al uso de LLM.
Se necesitan más investigaciones para establecer los parámetros óptimos del ciclo de optimización interactivo entre analistas y pronosticadores.
Necesidad de evaluar el rendimiento de generalización para tipos específicos de conjuntos de datos de entrenamiento.
Se necesita más investigación sobre su aplicabilidad y eficacia en entornos educativos del mundo real.
👍