Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Ataques de inferencia de membresía en sistemas de recomendación basados ​​en LLM

Created by
  • Haebom

Autor

Jiajie He, Yuechun Gu, Min-Chun Chen, Keke Chen

Describir

Este artículo se centra en las amenazas a la privacidad en un sistema de recomendación basado en un modelo de lenguaje a gran escala (LLM) (RecSys). RecSys, basado en LLM, aprovecha el aprendizaje en contexto (ICL) para personalizar las recomendaciones incorporando datos confidenciales de interacciones pasadas del usuario (p. ej., productos en los que se hizo clic, reseñas de productos) en las indicaciones del sistema. Esta información confidencial supone un riesgo para nuevos ataques a la privacidad, pero la investigación al respecto es escasa. En este artículo, diseñamos cuatro ataques de inferencia de membresía (MIA) —pregunta directa, alucinación, similitud y contaminación— para determinar si los datos de interacciones pasadas de un usuario se han utilizado en las indicaciones del sistema. Evaluamos estos ataques utilizando tres LLM y dos conjuntos de datos de referencia de RecSys. Nuestros resultados experimentales demuestran que los ataques de pregunta directa y contaminación alcanzan tasas de éxito significativamente altas, lo que demuestra la viabilidad de las amenazas MIA en LLM RecSys. También analizamos los factores que influyen en el ataque, como el número de disparos en las indicaciones del sistema y la ubicación de la víctima.

Takeaways, Limitations

Takeaways: Este artículo demuestra la realidad de las amenazas a la privacidad en RecSys basado en LLM y destaca la importancia de la protección de la privacidad en el desarrollo futuro de RecSys basado en LLM, demostrando la alta efectividad de los ataques de interrogatorio directo y contaminación. Además, analiza los factores que influyen en estos ataques y sugiere futuras técnicas de defensa.
Limitations: Dado que la evaluación se realizó con un número limitado de LLM y conjuntos de datos, se requiere mayor investigación con una gama más amplia de LLM y conjuntos de datos. Además del ataque MIA propuesto, se deben considerar otros tipos de ataques a la privacidad. Se requiere mayor investigación para evaluar las tasas de éxito de los ataques y la eficacia de las técnicas de defensa en entornos de servicio reales.
👍