본 논문은 대규모 언어 모델(LLM) 기반 추천 시스템(RecSys)에서의 프라이버시 위협에 초점을 맞추고 있다. LLM 기반 RecSys는 컨텍스트 내 학습(ICL)을 활용하여 사용자의 민감한 과거 상호작용 데이터(예: 클릭한 상품, 상품 리뷰)를 시스템 프롬프트에 포함시켜 추천 기능을 개인화한다. 이러한 민감한 정보는 새로운 프라이버시 공격에 노출될 위험이 있지만, 이에 대한 연구는 부족한 실정이다. 본 논문에서는 사용자의 과거 상호작용 데이터가 시스템 프롬프트에 사용되었는지 여부를 밝히기 위한 네 가지 멤버십 추론 공격(MIA) – 직접 질문, 환각, 유사성, 그리고 오염 공격 – 을 설계하고, 세 가지 LLM과 두 가지 RecSys 벤치마크 데이터셋을 사용하여 평가한다. 실험 결과, 직접 질문 및 오염 공격이 상당히 높은 공격 성공률을 보이며, LLM RecSys에서 MIA 위협이 현실적임을 확인한다. 또한, 시스템 프롬프트의 샷 수와 피해자의 위치 등 공격에 영향을 미치는 요인들을 분석한다.