Este artículo presenta una perspectiva y una solución novedosas al problema de fuga de gradiente que se produce en el aprendizaje federado (AF). El aprendizaje federado actual mantiene la privacidad compartiendo únicamente los gradientes del modelo, manteniendo los datos privados en su ubicación local. Sin embargo, los propios gradientes pueden contener información confidencial, lo que genera inquietud. Este artículo proporciona un análisis teórico de este problema de fuga de gradiente y propone una novedosa técnica de defensa que previene la fuga de gradiente en estructuras de modelo arbitrarias mediante un módulo de bloqueo de clave privada. El método propuesto previene la reconstrucción de datos privados compartiendo únicamente gradientes bloqueados, a la vez que minimiza la degradación del rendimiento del modelo. La robustez del método propuesto se verifica mediante experimentos con diversos modelos y puntos de referencia.