この論文は、低資源言語の高品質機械翻訳システムを構築するための新しいブートストラップアプローチであるCycleDistillを提案します。 CycleDistillは、大規模言語モデル(LLM)と少数ショット翻訳を活用して、単一の言語の束から合成平行の束を繰り返し生成し、生成されたデータでモデルを微調整する方法です。平行馬数が1〜4個の少数ショットの例のみが必要であり、3つのインド言語を対象とした実験で、単一言語馬数だけでも高品質の機械翻訳を達成し、少数ショット基準モデルと比較して、最初の反復で平均20〜30chrFポイント以上の向上を示した。さらに、蒸留中にソフトマックス活性化を利用する効果を研究し、翻訳品質のわずかな改善を観察しました。