Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Meta-preentrenamiento para el reconocimiento de entidades nombradas en varios idiomas con cero disparos en lenguas filipinas con recursos limitados

Created by
  • Haebom

Autor

David Demitri África, Suchir Salhan, Yuval Weiss, Paula Buttery, Richard Diehl Martínez

Describir

Los autores estudian si el preentrenamiento de un modelo de lenguaje (LM) de decodificador a pequeña escala en un entorno con memoria y latencia limitadas permite una rápida adaptación a lenguajes desconocidos y transferencias de disparo cero. En concreto, utilizan un método que sustituye algunos de los objetivos autorregresivos del modelo por metaaprendizaje agnóstico del modelo de primer orden (MAML). Los experimentos se realizan en tagalo y cebuano, y demuestran que MAML mejora las puntuaciones micro-F1 de disparo cero y reduce los tiempos de convergencia.

Takeaways, Limitations

Mejora del rendimiento de NER de disparo cero del decodificador LM de pequeña escala mediante MAML
Sugerir posibilidades para resolver el problema NER en idiomas de bajos recursos como el tagalo y el cebuano.
Mejora del micro-F1 entre un 2 % y un 6 % al ajustar solo el cabezal; entre un 1 % y un 3 % al ajustar el cabezal completo.
Reducir el tiempo de convergencia hasta en un 8%
Enfatizar la importancia de los anclajes de superficie (entidades de persona de un solo token que aparecen con las partículas del caso tagalo si/ni)
El número de idiomas probados está limitado a dos.
Se realizaron experimentos en varios tamaños de modelo (11M - 570M).
👍