Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

A Few Words Can Distort Graphs: Knowledge Poisoning Attacks on Graph-based Retrieval-Augmented Generation of Large Language Models

Created by
  • Haebom

作者

Jiayi Wen, Tianxin Chen, Zhirun Zheng, Cheng Huang

概要

本論文は、Graph-based Retrieval-Augmented Generation (GraphRAG)モデルの脆弱性を攻撃する2つの知識中毒攻撃(Knowledge Poisoning Attacks, KPAs)を提示します。 GraphRAGは、生のテキストを構造化された知識グラフに変換してLLMの精度と説明の可能性を向上させるモデルです。提示された2つの攻撃方法は、Targeted KPA(TKPA)とUniversal KPA(UKPA)です. TKPAは、グラフ理論分析を使用して生成されたグラフの脆弱なノードを見つけ、その記述をLLMに書き換えて、特定の質問 - 応答(QA)結果を正確に制御します。 UKPAは、代名詞や依存関係などの言語的手がかりを使用してグローバルに影響力のある単語を変更して、生成されたグラフの構造的整合性を破壊します。実験の結果、少量のテキスト修正だけでGraphRAGのQA精度を大幅に低下させることができ、従来の防御技術がこれらの攻撃を検出できないことを強調しています。

Takeaways、Limitations

Takeaways: GraphRAGなどのLLMベースの知識グラフ生成モデルのセキュリティ脆弱性を示し、知識中毒攻撃に対する新しい攻撃技術とその効果を提示します。既存の防御技術の限界を明らかにし、GraphRAGモデルのセキュリティ強化研究の必要性を強調する。 TKPAとUKPAは攻撃の成功率が高く、少量のテキスト修正でも大きな影響を与えます。
Limitations:現在提示されている攻撃は特定のGraphRAG実装に関するものであり、他の実装やLLMアーキテクチャの一般化の可能性にはさらなる研究が必要です。実際の環境での攻撃効果には追加の検証が必要です。提示された防衛技術の欠如は今後の研究の方向性を提示するが、具体的な防衛戦略の議論は不足している。
👍