Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Reconstruction of Differentially Private Text Sanitization via Large Language Models

Created by
  • Haebom

作者

Shuchao Pang, Zhigang Lu, Haichen Wang, Peng Fu, Yongbin Zhou, Minhui Xue

概要

本論文は、差別的プライバシー(DP)技術が適用されたテキストでも、大規模言語モデル(LLM)が個人情報を再構成できることを明らかにします。研究者はLLMのアクセシビリティに応じてブラックボックス攻撃とホワイトボックス攻撃の2つを提案し、DP処理されたテキストとLLMの個人情報保護のための学習データとの接続可能性を実験的に証明します。 LLaMA-2、LLaMA-3、ChatGPTなど、さまざまなLLMとWikiMIA、Pile-CCなどのデータセットを使用して、単語レベルと文章レベルのDPの実験を行い、高い再構成成功率を確認しました。たとえば、WikiMIAデータセットのワードレベルDPに対するブラックボックス攻撃は、LLaMA-2(70B)で72.18%、LLaMA-3(70B)で82.39%、ChatGPT-4oで91.2%、Claude-3.5で94.01%の成功率を示しました。これは、既存のDP技術のセキュリティ脆弱性を明らかにし、LLM自体が新しいセキュリティ脅威であることを示唆しています。

Takeaways、Limitations

Takeaways:
既存の差動的プライバシー(DP)技術の限界を明らかにする。
大規模言語モデル(LLM)が新しい個人情報漏洩経路になる可能性があることを示唆しています。
DP技術の改善とLLMを活用した攻撃に対する新たな防御戦略の必要性の提起
様々なLLMとデータセットの実験結果を通して一般化可能性を提示
Limitations:
提案された攻撃技術の効率性と実際の環境適用可能性に関するさらなる研究が必要です。
より強力なDP技術やLLMに対する防御技術の開発が必要です。
特定のLLMとデータセットに対する実験結果なので、他のLLMやデータセットに一般化するには限界存在。
実際の個人情報漏洩事例の分析と検証の欠如。
👍