本稿では、大規模言語モデル(LLM)ベースのコード生成における検索拡張生成(RAG)の脆弱性、特に悪意のある依存性ハイジャック攻撃に関する研究を紹介します。 RAGを使用したコード生成(RACG)は、悪意のある文書を介してLLMと開発者の信頼を悪用して悪意のある依存関係を挿入する攻撃の可能性を示しています。この目的のために、悪意のある文書のランキングを操作するPosition-aware beam searchとLLMを操縦して悪意のある依存関係を推薦するように誘導するMultilingual inductive suggestionsを含むImportSnareという新しい攻撃フレームワークを提案します。 Python、Rust、JavaScriptなど、さまざまな言語で高い成功率(matplotlib、seabornなどの人気ライブラリ基準50%以上)を達成し、低い毒性率(0.01%)でも効果的であることを実験的に証明します。これは、LLMベースの開発におけるサプライチェーンのリスクを強調し、コード生成作業に対するセキュリティ強化の必要性を示唆しています。多言語ベンチマークとデータセットを公開する予定です。