Este artículo se centra en las amenazas a la privacidad en un sistema de recomendación basado en un modelo de lenguaje a gran escala (LLM) (RecSys). RecSys, basado en LLM, aprovecha el aprendizaje en contexto (ICL) para personalizar las recomendaciones incorporando datos confidenciales de interacciones pasadas del usuario (p. ej., productos en los que se hizo clic, reseñas de productos) en las indicaciones del sistema. Esta información confidencial supone un riesgo para nuevos ataques a la privacidad, pero la investigación al respecto es escasa. En este artículo, diseñamos cuatro ataques de inferencia de membresía (MIA) —pregunta directa, alucinación, similitud y contaminación— para determinar si los datos de interacciones pasadas de un usuario se han utilizado en las indicaciones del sistema. Evaluamos estos ataques utilizando tres LLM y dos conjuntos de datos de referencia de RecSys. Nuestros resultados experimentales demuestran que los ataques de pregunta directa y contaminación alcanzan tasas de éxito significativamente altas, lo que demuestra la viabilidad de las amenazas MIA en LLM RecSys. También analizamos los factores que influyen en el ataque, como el número de disparos en las indicaciones del sistema y la ubicación de la víctima.