Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Controlling What You Share: Assessing Language Model Adherence to Privacy Preferences

Created by
  • Haebom

作者

Guillem Ram irez, Alexandra Birch, Ivan Titov

概要

この論文では、ユーザーが自分のデータを安全に保護しながら、ラージ言語モデル(LLM)を活用する方法を紹介します。個人情報の露出を最小限に抑えるために、ユーザーは自然言語ガイドライン「privacy profiles」を通じて公開する内容と非公開の内容を指定します。このガイドラインに基づいて、ローカルモデルがクエリを再作成して外部モデルに送信することで、ユーザーはプライバシーとパフォーマンスのバランスを維持できます。この目的のために、個人情報を表示し、合成プライバシープロファイルを提供する多言語データセットPEEPを紹介します。軽量ローカルLLMを使用して実験した結果、fine-tuningによってプライバシーを大幅に向上させ、より大きなゼロショットモデルと同等またはより良いパフォーマンスを達成しました。しかし、ユーザーガイドラインを完全に遵守することは依然として困難であり、これはカスタマイズされたプライバシー設定の理解度の高いモデルの必要性を強調します。

Takeaways、Limitations

Takeaways:
ユーザーが自分のデータを制御しながらLLMを活用できるフレームワークの提示。
プライバシープロファイルを活用してプライバシーとモデルパフォーマンスのバランスを達成
多言語データセットPEEPの開発による研究支援
軽量LLMを活用した実験により、privacy preservationと性能向上を実証。
Limitations:
ユーザーガイドラインを完全に遵守するのが難しい存在。
カスタムPrivacy preferencesのモデル理解も改善が必要。
👍