Cet article propose un nouveau cadre de génération de données qui favorise la réflexion exploratoire pour résoudre le problème des biais de genre dans les modèles linguistiques à grande échelle (MLH). Cette méthode génère des paires de scénarios structurellement identiques et moralement ambigus, mettant en scène des protagonistes masculins et féminins, compare leurs jugements moraux et guide le modèle pour générer des jugements équilibrés et neutres en cas de divergence. Ces paires histoire-jugement sont utilisées pour affiner ou optimiser le modèle grâce à l'optimisation des préférences directes (OPD). Les résultats expérimentaux démontrent que la méthode proposée réduit significativement les biais de genre tout en maintenant ou en améliorant les performances générales du modèle. Le code et les données générées sont accessibles au public.