Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Attaques par inférence d'appartenance sur les systèmes de recommandation basés sur LLM

Created by
  • Haebom

Auteur

Jiajie He, Yuechun Gu, Min-Chun Chen, Keke Chen

Contour

Cet article se concentre sur les menaces à la vie privée dans un système de recommandation basé sur un modèle de langage à grande échelle (LLM) (RecSys). RecSys, basé sur LLM, exploite l'apprentissage en contexte (ICL) pour personnaliser les recommandations en intégrant des données sensibles d'interactions passées de l'utilisateur (par exemple, les produits cliqués, les avis produits) aux invites système. Ces informations sensibles présentent un risque pour de nouvelles attaques contre la vie privée, mais les recherches sur ce sujet sont insuffisantes. Dans cet article, nous concevons quatre attaques par inférence d'appartenance (AIA) – question directe, hallucination, similarité et contamination – afin de déterminer si les données d'interaction passées d'un utilisateur ont été utilisées dans les invites système. Nous évaluons ces attaques à l'aide de trois LLM et de deux jeux de données de référence RecSys. Nos résultats expérimentaux démontrent que les attaques par question directe et contamination atteignent des taux de réussite significativement élevés, démontrant ainsi la faisabilité des menaces AIA dans RecSys LLM. Nous analysons également les facteurs qui influencent l'attaque, tels que le nombre de tirs dans les invites système et la localisation de la victime.

Takeaways, Limitations_

Takeaways: Cet article démontre la réalité des menaces à la vie privée dans les systèmes de collecte de données (RecSys) basés sur LLM et souligne l'importance de la protection de la vie privée dans le développement futur de ces systèmes en démontrant la grande efficacité des attaques par interrogatoire direct et par contamination. De plus, il analyse les facteurs influençant ces attaques et suggère des pistes pour les futures techniques de défense.
Limitations: Étant donné que l'évaluation a été réalisée à partir d'un nombre limité de LLM et d'ensembles de données, des recherches plus approfondies sur un éventail plus large de LLM et d'ensembles de données sont nécessaires. De plus, outre l'attaque MIA proposée, d'autres types d'attaques contre la confidentialité doivent être envisagés. Des recherches supplémentaires sont nécessaires pour évaluer les taux de réussite des attaques et l'efficacité des techniques de défense dans des environnements de services réels.
👍