この論文は、機密環境でますます使用されている巨大言語モデル(LLM)に対する指紋攻撃の深刻なプライバシーとセキュリティリスクについて説明します。攻撃と防御の両方の観点からLLM指紋の作成に関する研究を提示します。強化学習を使用してクエリ選択を自動的に最適化する攻撃方法論を使用して、同じプールからランダムに3つのクエリを選択するよりも、3つのクエリだけでより良い指紋精度を達成します。防御的アプローチは、セカンダリLLMを介してセマンティクスを保存する出力フィルタリングを使用して、セマンティックインテグリティを維持しながらモデルIDを非表示にします。防御方法は、テストされたモデルの指紋精度を下げると同時に出力品質を維持します。これらの貢献は、指紋ツールの機能を向上させると同時に、指紋攻撃に対する実用的な緩和戦略を提供する可能性を示しています。