Cet article se concentre sur les menaces à la vie privée dans un système de recommandation basé sur un modèle de langage à grande échelle (LLM) (RecSys). RecSys, basé sur LLM, exploite l'apprentissage en contexte (ICL) pour personnaliser les recommandations en intégrant des données sensibles d'interactions passées de l'utilisateur (par exemple, les produits cliqués, les avis produits) aux invites système. Ces informations sensibles présentent un risque pour de nouvelles attaques contre la vie privée, mais les recherches sur ce sujet sont insuffisantes. Dans cet article, nous concevons quatre attaques par inférence d'appartenance (AIA) – question directe, hallucination, similarité et contamination – afin de déterminer si les données d'interaction passées d'un utilisateur ont été utilisées dans les invites système. Nous évaluons ces attaques à l'aide de trois LLM et de deux jeux de données de référence RecSys. Nos résultats expérimentaux démontrent que les attaques par question directe et contamination atteignent des taux de réussite significativement élevés, démontrant ainsi la faisabilité des menaces AIA dans RecSys LLM. Nous analysons également les facteurs qui influencent l'attaque, tels que le nombre de tirs dans les invites système et la localisation de la victime.