Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

PromptKeeper: Safeguarding System Prompts for LLMs

Created by
  • Haebom

作者

Zhifeng Jiang, Zhihua Jin, Guoliang He

概要

この論文は、大規模言語モデル(LLM)の出力を導くシステムプロンプトのセキュリティ問題を解決するために、PromptKeeperという防御メカニズムを提案します。システムプロンプトにはビジネスロジックや機密情報が含まれることが多いため、悪意のあるユーザークエリや一般的なユーザークエリを介してLLMの脆弱性を悪用してこれらのプロンプトが公開される危険性があります。 PromptKeeperは、プロンプトの漏洩を確実に検出し、流出が発生したときのサイドチャネルの脆弱性を軽減する2つの重要な課題を解決します。仮説検定の問題で流出検出を構成して明示的および微妙な流出を効果的に識別し、流出が検出されたらダミープロンプトを使用して応答を再生成し、流出のない一般的な相互作用と区別できないようにする。その結果、悪意のあるまたは一般的なクエリを介したプロンプト抽出攻撃に対する強力な保護を提供しながら、一般的なユーザー対話中に会話の能力と実行効率を維持します。

Takeaways、Limitations

Takeaways:
LLMシステムプロンプトのセキュリティ脅威に対する効果的な解決策の提示
悪意のある攻撃と一般的なユーザークエリの両方に対する強力な防御を提供
プロンプト流出の検出と緩和のための効率的な機構の提示
会話能力と実行効率を維持
Limitations:
提案された防御メカニズムの実環境における性能と安定性のさらなる評価が必要
さまざまなタイプのLLMと攻撃手法の一般化可能性検証が必要
ダミープロンプト生成戦略の最適化とセキュリティ強化が必要
実際のシステムに適用するときに発生する可能性のある追加のオーバーヘッドとパフォーマンスの低下分析が必要
👍