Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Sesgos de rendimiento multilingüe de los grandes modelos lingüísticos en la educación

Created by
  • Haebom

Autor

Vansh Gupta, Sankalan Pal Chowdhury, Vil em Zouhar, Donya Rooein, Mrinmaya Sachan

Describir

Este artículo evalúa la viabilidad de un modelo lingüístico a gran escala (LLM) en un entorno educativo con múltiples idiomas (inglés, mandarín, hindi, árabe, alemán, persa, telugu, ucraniano y checo). El rendimiento del LLM se midió en cuatro tareas educativas: identificación de conceptos erróneos de los estudiantes, retroalimentación personalizada, tutoría interactiva y calificación de traducciones. Los resultados revelaron que el rendimiento del LLM se correlacionó principalmente con la cantidad de idioma incluido en los datos de entrenamiento. El rendimiento fue especialmente bajo en los idiomas con recursos limitados, con una degradación del rendimiento más frecuente que en inglés.

Takeaways, Limitations

Takeaways: Al presentar una investigación empírica que evalúa la aplicabilidad educativa del LLM en varios idiomas, incluyendo aquellos con recursos limitados, enfatizamos la importancia de validar el rendimiento del LLM en el idioma relevante antes de aplicarlo en entornos educativos. Observamos que el rendimiento del LLM se ve significativamente afectado por la composición lingüística de los datos de entrenamiento.
Limitations: Este estudio evaluó un lenguaje y una tarea específicos, lo que limita su generalización a otros lenguajes y tareas. Además, carece de un análisis exhaustivo de las causas de la degradación del rendimiento de LLM. La falta de un análisis comparativo de diversos modelos LLM es otra limitación.
👍