Cet article présente la première revue systématique des stratégies visant à résoudre le problème de pénurie de données dans la modélisation générative du langage pour les langues à faibles ressources (LRL). En nous appuyant sur 54 études, nous identifions, catégorisons et évaluons les approches techniques, notamment l'augmentation des données monolingues, la rétrotraduction, l'apprentissage multilingue et l'ingénierie des invites, pour les tâches génératives. Nous analysons également les tendances en matière de choix d'architecture, de représentation des familles de langues et de méthodes d'évaluation. Nous concluons en soulignant la forte dépendance aux modèles basés sur les transformateurs, la concentration sur un petit nombre de LRL et le manque d'évaluation cohérente entre les études. Nous formulons des recommandations pour étendre ces méthodes à un plus large éventail de LRL et soulignons les défis non résolus de la construction de systèmes linguistiques génératifs équitables. En fin de compte, cette revue vise à aider les chercheurs et les développeurs à créer des outils d'IA complets pour les utilisateurs de langues à faibles ressources.