Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

AgentArmor: Enforcing Program Analysis on Agent Runtime Trace to Defend Against Prompt Injection

Created by
  • Haebom

作者

Peiran Wang, Yang Liu, Yunfei Lu, Yifeng Cai, Hongbo Chen, Qingyou Yang, Jie Zhang, Jue Hong, Ye Wu

概要

本論文は、大規模言語モデル(LLM)エージェントのセキュリティ脆弱性、特にプロンプ​​ト注入攻撃のリスクを解決するために、エージェントの実行追跡を構造化プログラムとして扱う新しい方法を提供します。 AgentArmorと呼ばれるプログラム分析フレームワークを提案し、これはエージェントトレースをグラフ中間表現(CFG、DFG、PDGなど)に変換し、タイプシステムを介してセキュリティポリシーを適用します。 AgentArmorは、グラフジェネレータ、プロパティレジストリ、タイプシステムの3つの主要コンポーネントで構成されており、エージェントの動作を構造化プログラムで表現することで、機密データフロー、信頼境界、およびポリシー違反のプログラム分析を可能にします。 AgentDojoベンチマークで評価した結果、AgentArmorはASRを3%に減らし、ユーティリティの削減は1%に制限することを示しています。

Takeaways、Limitations

Takeaways:
LLMエージェントのセキュリティ脆弱性問題に対する効果的な解決策の提示
エージェント実行トレースを構造化プログラムに変換して分析可能にすることで、静的分析手法を活用可能
AgentArmorによるプロンプトインジェクション攻撃によるセキュリティ脅威の低減
実験結果によるAgentArmorの効果と実用性の検証
Limitations:
AgentArmorの性能と効率性に関するさらなる研究が必要
さまざまなタイプのLLMエージェントと環境の適用性検証が必要
複雑なエージェント動作の分析精度と限界チェックが必要
新しいタイプの攻撃やエージェント設計の適応性評価が必要
👍