Dans cet article, nous proposons une nouvelle méthode, l'apprentissage sensible à la quantification pour la généralisation de domaine (QT-DoG), qui utilise la quantification des pondérations pour résoudre le problème de surapprentissage en généralisation de domaine (DG). Contrairement aux méthodes de quantification existantes axées sur la compression des modèles, QT-DoG utilise la quantification comme régularisation implicite en introduisant du bruit dans les pondérations afin de trouver un minimum plus plat de la fonction de perte. Cela la rend moins sujette au surapprentissage et permet d'obtenir de meilleures performances de généralisation dans divers domaines. Grâce à une analyse théorique et à des preuves expérimentales, nous démontrons que la quantification induit un minimum plus plat et, de plus, en regroupant plusieurs modèles quantifiés, nous obtenons une meilleure précision que les méthodes DG de pointe existantes, sans coût de calcul ni surcharge mémoire. Le code source est open source.