Este artículo aborda los riesgos de privacidad en el aprendizaje federado, en particular su vulnerabilidad a los ataques de inferencia de membresía (MIA). Destacamos que los estudios existentes no consideran la privacidad diferencial local (LDP) ni ofrecen garantías teóricas sobre la tasa de éxito de los ataques en datos protegidos por LDP. Derivamos límites inferiores teóricos para la tasa de éxito de los MIA de tiempo polinomial bajo que explotan vulnerabilidades en capas completamente conectadas o de autoatención. Las evaluaciones experimentales en modelos de visión federada demuestran que los riesgos de privacidad persisten incluso con LDP, y que el ruido introducido para mitigar los ataques reduce significativamente la utilidad del modelo.