Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

Phá vỡ Android bằng AI: Đi sâu vào khai thác được hỗ trợ bởi LLM

작성자
  • Haebom

Tác giả

Wanni Vidulige Ishan Perera, Xing Liu, Fan Liang, Junyi Zhang

Phác thảo

Bài báo này khám phá việc tự động hóa kiểm thử xâm nhập Android bằng trí tuệ nhân tạo (AI) và các mô hình ngôn ngữ quy mô lớn (LLM), đặc biệt là việc phát hiện và thực thi các kỹ thuật root bằng PentestGPT. Chúng tôi so sánh các quy trình root thủ công hiện có với các phương pháp tạo khai thác dựa trên AI để đánh giá hiệu quả, độ tin cậy và khả năng mở rộng của kiểm thử xâm nhập tự động dựa trên AI. Chúng tôi sử dụng trình giả lập Android Genymotion để triển khai cả các tập lệnh thủ công và do AI tạo ra cho việc root tự động, đồng thời phát triển một ứng dụng web tích hợp API OpenAI để tự động tạo tập lệnh dựa trên LLM. Chúng tôi đánh giá hiệu quả của các khai thác dựa trên AI, phân tích điểm mạnh và điểm yếu của chúng, đồng thời đưa ra các khuyến nghị bảo mật, bao gồm các khía cạnh đạo đức và khả năng khai thác. Những phát hiện của chúng tôi chứng minh rằng mặc dù LLM đơn giản hóa quy trình khai thác, nhưng sự can thiệp của con người là cần thiết để ứng dụng chính xác và có đạo đức.

Takeaways, Limitations

Takeaways:
Chúng tôi trình bày hiệu quả và tiềm năng của việc tự động hóa thử nghiệm xâm nhập Android bằng các công cụ dựa trên AI.
Chúng tôi phân tích ưu và nhược điểm của việc tạo ra các lỗ hổng tự động bằng LLM.
Thảo luận về các vấn đề đạo đức và phòng ngừa khai thác lỗ hổng trong thử nghiệm xâm nhập dựa trên AI.
Nó trình bày góc nhìn mới về nghiên cứu an ninh mạng dựa trên AI và bảo mật di động.
Limitations:
Chủ đề nghiên cứu có thể bị giới hạn trong một LLM (PentestGPT) và môi trường Android cụ thể.
Cần nghiên cứu thêm để xác minh tính chính xác và độ tin cậy của kết quả đầu ra của LLM.
Việc thử nghiệm trên nhiều phiên bản Android và môi trường thiết bị khác nhau có thể bị hạn chế.
Có thể vẫn còn thiếu một giải pháp toàn diện cho những lo ngại về đạo đức liên quan đến thử nghiệm xâm nhập tự động dựa trên AI.
👍