Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Desenmascaramiento teórico de ataques de inferencia contra clientes protegidos por LDP en modelos de visión federada

Created by
  • Haebom

Autor

Quan Nguyen, Minh N. Vu, Truc Nguyen, My T. Thai

Describir

Este artículo aborda los riesgos de privacidad en el aprendizaje federado, en particular su vulnerabilidad a los ataques de inferencia de membresía (MIA). Destacamos que los estudios existentes no consideran la privacidad diferencial local (LDP) ni ofrecen garantías teóricas sobre la tasa de éxito de los ataques en datos protegidos por LDP. Derivamos límites inferiores teóricos para la tasa de éxito de los MIA de tiempo polinomial bajo que explotan vulnerabilidades en capas completamente conectadas o de autoatención. Las evaluaciones experimentales en modelos de visión federada demuestran que los riesgos de privacidad persisten incluso con LDP, y que el ruido introducido para mitigar los ataques reduce significativamente la utilidad del modelo.

Takeaways, Limitations

Takeaways: Demostramos que la aplicación de LDP no elimina por completo el riesgo de MIA en el aprendizaje federado, lo que requiere un equilibrio entre la privacidad y la utilidad del modelo. Demostramos claramente las limitaciones de LDP al derivar un límite inferior teórico para MIA de tiempo polinomial bajo.
Limitations: Este estudio se limita al análisis de tipos específicos de redes neuronales (capas totalmente conectadas y de autoatención), y se requiere más investigación para determinar la generalización a otras arquitecturas. La evaluación experimental se limita a un modelo de visión federada específico, y es necesario verificar la generalización a otros modelos o conjuntos de datos. Se carece de una metodología específica para encontrar el equilibrio óptimo entre privacidad y rendimiento del modelo.
👍