Cet article présente une nouvelle perspective et une solution au problème de fuite de gradient qui se produit dans l'apprentissage fédéré (AF). L'apprentissage fédéré existant préserve la confidentialité en partageant uniquement les gradients du modèle tout en conservant les données privées en local. Cependant, les gradients eux-mêmes peuvent contenir des informations sensibles, ce qui soulève des inquiétudes. Cet article fournit une analyse théorique de ce problème de fuite de gradient et propose une nouvelle technique de défense qui empêche la fuite de gradient dans des structures de modèle arbitraires grâce à un module de verrouillage de clé privée. La méthode proposée empêche la reconstruction des données privées en partageant uniquement les gradients verrouillés, tout en minimisant la dégradation des performances du modèle. La robustesse de la méthode proposée est vérifiée par des expérimentations utilisant divers modèles et benchmarks.