Este artículo propone CycleDistill, un novedoso enfoque de bootstrap para construir sistemas de traducción automática de alta calidad para idiomas con recursos limitados. CycleDistill aprovecha un modelo lingüístico a gran escala (LLM) y traducciones de pocos ejemplos para generar iterativamente corpus paralelos sintéticos a partir de un corpus de un solo idioma, perfeccionando el modelo con los datos generados. Los corpus paralelos requieren solo de uno a cuatro ejemplos de pocos ejemplos, y experimentos en tres idiomas indios demuestran que, incluso con un solo corpus, se logra una traducción automática de alta calidad, con una mejora promedio de 20 a 30 puntos chrF en la primera iteración, en comparación con un modelo base de pocos ejemplos. Además, investigamos el efecto del uso de activaciones softmax durante el proceso de destilación y observamos una ligera mejora en la calidad de la traducción.