Bài báo này tập trung vào các mối đe dọa quyền riêng tư trong hệ thống đề xuất dựa trên mô hình ngôn ngữ quy mô lớn (LLM) (RecSys). RecSys dựa trên LLM tận dụng học tập theo ngữ cảnh (ICL) để cá nhân hóa các đề xuất bằng cách kết hợp dữ liệu tương tác nhạy cảm trong quá khứ của người dùng (ví dụ: sản phẩm đã nhấp, đánh giá sản phẩm) vào lời nhắc hệ thống. Thông tin nhạy cảm này đặt ra nguy cơ cho các cuộc tấn công quyền riêng tư mới, nhưng vẫn còn thiếu nghiên cứu về chủ đề này. Trong bài báo này, chúng tôi thiết kế bốn cuộc tấn công suy luận thành viên (MIA)—câu hỏi trực tiếp, ảo giác, tương tự và nhiễm bẩn—để xác định xem dữ liệu tương tác trong quá khứ của người dùng có được sử dụng trong lời nhắc hệ thống hay không. Chúng tôi đánh giá các cuộc tấn công này bằng cách sử dụng ba LLM và hai tập dữ liệu chuẩn RecSys. Kết quả thử nghiệm của chúng tôi chứng minh rằng các cuộc tấn công câu hỏi trực tiếp và nhiễm bẩn đạt tỷ lệ thành công tấn công cao đáng kể, chứng minh tính thực tiễn của các mối đe dọa MIA trong LLM RecSys. Chúng tôi cũng phân tích các yếu tố ảnh hưởng đến cuộc tấn công, chẳng hạn như số lần bắn trong lời nhắc hệ thống và vị trí của nạn nhân.