Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

CycleDistill : Amorçage de la traduction automatique à l'aide de LLM avec distillation cyclique

Created by
  • Haebom

Auteur

Deepon Halder, Thanmay Jayakumar, Raj Dabre

Contour

Cet article propose CycleDistill, une nouvelle approche d'amorçage permettant de créer des systèmes de traduction automatique de haute qualité pour les langues à faibles ressources. CycleDistill s'appuie sur un modèle linguistique à grande échelle (LLM) et des traductions en quelques étapes pour générer itérativement des corpus parallèles synthétiques à partir d'un corpus monolingue, puis peaufiner le modèle à l'aide des données générées. Les corpus parallèles ne nécessitent qu'un à quatre exemples en quelques étapes, et des expériences sur trois langues indiennes démontrent que même avec un seul corpus, une traduction automatique de haute qualité est obtenue, avec une amélioration moyenne de 20 à 30 points chrF dès la première itération par rapport à un modèle de base en quelques étapes. De plus, nous étudions l'effet de l'utilisation d'activations softmax pendant le processus de distillation et observons une légère amélioration de la qualité de la traduction.

Takeaways, Limitations_

Takeaways:
Une méthode d’amorçage efficace pour développer des systèmes de traduction automatique de haute qualité pour les langues à faibles ressources est présentée.
Cela montre que des performances élevées peuvent être obtenues même avec de petites quantités de données.
Présentation de la possibilité de génération de corpus parallèles et de formation de modèles en utilisant un seul corpus linguistique.
Vérification de l'efficacité du processus de distillation à l'aide de l'activation softmax.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité de la méthodologie présentée à d’autres langues à faibles ressources et à diverses paires de langues.
Une analyse plus approfondie de l’impact de la qualité des corpus parallèles synthétiques sur les performances de traduction finale est nécessaire.
D’autres expériences sont nécessaires pour déterminer l’effet du type et de la taille du LLM utilisé sur les résultats.
L’évaluation des performances à l’aide d’autres indicateurs d’évaluation en plus du score chrF est nécessaire.
👍