Cet article propose CycleDistill, une nouvelle approche d'amorçage permettant de créer des systèmes de traduction automatique de haute qualité pour les langues à faibles ressources. CycleDistill s'appuie sur un modèle linguistique à grande échelle (LLM) et des traductions en quelques étapes pour générer itérativement des corpus parallèles synthétiques à partir d'un corpus monolingue, puis peaufiner le modèle à l'aide des données générées. Les corpus parallèles ne nécessitent qu'un à quatre exemples en quelques étapes, et des expériences sur trois langues indiennes démontrent que même avec un seul corpus, une traduction automatique de haute qualité est obtenue, avec une amélioration moyenne de 20 à 30 points chrF dès la première itération par rapport à un modèle de base en quelques étapes. De plus, nous étudions l'effet de l'utilisation d'activations softmax pendant le processus de distillation et observons une légère amélioration de la qualité de la traduction.