Bài báo này trình bày một nghiên cứu về các lỗ hổng của Search-Augmented Generation (RAG) trong việc tạo mã dựa trên mô hình ngôn ngữ quy mô lớn (LLM), cụ thể là các cuộc tấn công chiếm đoạt phụ thuộc độc hại. Chúng tôi chứng minh tiềm năng khai thác LLM và lòng tin của nhà phát triển bằng cách đưa các phụ thuộc độc hại vào quá trình tạo mã dựa trên RAG (RACG) bằng các tài liệu độc hại. Để đạt được điều này, chúng tôi đề xuất một khuôn khổ tấn công mới, được gọi là ImportSnare, kết hợp tìm kiếm chùm tia nhận biết vị trí để thao túng thứ hạng của các tài liệu độc hại và các đề xuất quy nạp đa ngôn ngữ để thao túng LLM nhằm đề xuất các phụ thuộc độc hại. Chúng tôi chứng minh bằng thực nghiệm rằng ImportSnare đạt tỷ lệ thành công cao (trên 50% đối với các thư viện phổ biến như matplotlib và seaborn) trên nhiều ngôn ngữ khác nhau, bao gồm Python, Rust và JavaScript, và hiệu quả ngay cả ở tỷ lệ độc hại thấp (0,01%). Điều này làm nổi bật các rủi ro chuỗi cung ứng của quá trình phát triển dựa trên LLM và cho thấy nhu cầu tăng cường bảo mật trong quá trình tạo mã. Các điểm chuẩn và bộ dữ liệu đa ngôn ngữ sẽ được công khai.