Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Membership Inference Attacks on LLM-based Recommender Systems

Created by
  • Haebom

作者

Jiajie He, Yuechun Gu, Min-Chun Chen, Keke Chen

概要

この論文は、大規模言語モデル(LLM)ベースの推奨システム(RecSys)におけるプライバシーの脅威に焦点を当てています。 LLMベースのRecSysは、コンテキスト内学習(ICL)を活用して、ユーザーの機密性の高い過去の対話データ(たとえば、クリックした商品、商品レビュー)をシステムプロンプトに含めることで、推奨機能をパーソナライズします。これらの機密情報は新しいプライバシー攻撃にさらされる危険性がありますが、これに関する研究は不十分です。この論文では、ユーザーの過去の対話データがシステムプロンプトで使用されたかどうかを明らかにするための4つのメンバーシップ推論攻撃(MIA) - 直接の質問、幻覚、類似性、および汚染攻撃 - を設計し、3つのLLMと2つのRecSysベンチマークデータセットを使用して評価します。実験の結果、直接の質問と汚染攻撃はかなり高い攻撃成功率を示し、LLM RecSysでMIAの脅威が現実的であることを確認した。また、システムプロンプトのショット数や被害者の位置など攻撃に影響を与える要因を分析する。

Takeaways、Limitations

Takeaways: LLMベースのRecSysでのプライバシー脅威の現実性を示し、直接の質問と汚染攻撃の高い効果を提示することによって、将来のLLMベースのRecSys開発におけるプライバシー保護の重要性を強調する。さらに、攻撃に影響を与える要因を分析し、将来の防衛技術の開発の方向性を提示します。
Limitations:限られた数のLLMとデータセットを使用して評価されたので、さまざまなLLMとデータセットの追加の研究が必要です。さらに、提案されたMIA攻撃に加えて、他の種類のプライバシー攻撃の可能性も考慮する必要があります。実際のサービス環境での攻撃の成功率と防御技術の効果に関するさらなる研究が必要です。
👍