Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Membership Inference Attacks on LLM-based Recommender Systems

Created by
  • Haebom

저자

Jiajie He, Yuechun Gu, Min-Chun Chen, Keke Chen

개요

본 논문은 대규모 언어 모델(LLM) 기반 추천 시스템(RecSys)에서의 프라이버시 위협에 초점을 맞추고 있다. LLM 기반 RecSys는 컨텍스트 내 학습(ICL)을 활용하여 사용자의 민감한 과거 상호작용 데이터(예: 클릭한 상품, 상품 리뷰)를 시스템 프롬프트에 포함시켜 추천 기능을 개인화한다. 이러한 민감한 정보는 새로운 프라이버시 공격에 노출될 위험이 있지만, 이에 대한 연구는 부족한 실정이다. 본 논문에서는 사용자의 과거 상호작용 데이터가 시스템 프롬프트에 사용되었는지 여부를 밝히기 위한 네 가지 멤버십 추론 공격(MIA) – 직접 질문, 환각, 유사성, 그리고 오염 공격 – 을 설계하고, 세 가지 LLM과 두 가지 RecSys 벤치마크 데이터셋을 사용하여 평가한다. 실험 결과, 직접 질문 및 오염 공격이 상당히 높은 공격 성공률을 보이며, LLM RecSys에서 MIA 위협이 현실적임을 확인한다. 또한, 시스템 프롬프트의 샷 수와 피해자의 위치 등 공격에 영향을 미치는 요인들을 분석한다.

시사점, 한계점

시사점: LLM 기반 RecSys에서의 프라이버시 위협의 현실성을 보여주고, 직접 질문 및 오염 공격의 높은 효과를 제시함으로써 향후 LLM 기반 RecSys 개발 시 프라이버시 보호에 대한 중요성을 강조한다. 또한, 공격에 영향을 미치는 요인들을 분석하여 향후 방어 기법 개발에 대한 방향을 제시한다.
한계점: 제한된 수의 LLM과 데이터셋을 사용하여 평가하였으므로, 다양한 LLM과 데이터셋에 대한 추가적인 연구가 필요하다. 또한, 제안된 MIA 공격 외에도 다른 유형의 프라이버시 공격 가능성을 고려해야 한다. 실제 서비스 환경에서의 공격 성공률과 방어 기법의 효과에 대한 추가적인 연구가 필요하다.
👍