[공지사항]을 빙자한 안부와 근황 
Show more

Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

Các mô hình ngôn ngữ lớn không đáng tin cậy đối với thông tin tình báo về mối đe dọa mạng

Created by
  • Haebom

Tác giả

Emanuele Mezzi, Fabio Massacci, Katja Tuma

Phác thảo

Dựa trên một số nghiên cứu gần đây cho thấy rằng các mô hình ngôn ngữ quy mô lớn (LLM) có thể được sử dụng để giải quyết tình trạng tràn ngập dữ liệu an ninh mạng nhằm cải thiện khả năng tự động hóa các tác vụ tình báo mối đe dọa mạng (CTI), bài báo này trình bày một phương pháp đánh giá có thể kiểm tra LLM trên các tác vụ CTI, cũng như định lượng tính nhất quán và mức độ tin cậy của chúng khi sử dụng học không lần, học ít lần và tinh chỉnh. Sử dụng ba LLM hiện đại và bộ dữ liệu gồm 350 báo cáo tình báo mối đe dọa, chúng tôi tiến hành các thí nghiệm và cung cấp bằng chứng mới về các rủi ro bảo mật tiềm ẩn khi sử dụng LLM cho CTI. Chúng tôi chỉ ra rằng chúng không hoạt động đủ tốt trên các báo cáo thực tế, không nhất quán và có xu hướng quá tự tin. Học ít lần và tinh chỉnh chỉ cải thiện một phần kết quả, đặt ra câu hỏi về tính khả thi của việc sử dụng LLM trong các tình huống CTI khi các bộ dữ liệu được gắn nhãn khan hiếm và độ tin cậy là một yếu tố quan trọng.

Takeaways, Limitations

Takeaways: Trình bày một phương pháp đánh giá mới để định lượng mức độ nhất quán và độ tin cậy khi áp dụng LLM vào các nhiệm vụ CTI. Trình bày các kết quả thực nghiệm cho thấy các rủi ro bảo mật tiềm ẩn khi áp dụng LLM vào CTI.
Limitations: Hiệu suất của LLM trên các báo cáo quy mô thực tế còn hạn chế, thiếu nhất quán và quá tự tin. Việc học tập theo từng trường hợp cụ thể và tinh chỉnh có tác dụng hạn chế trong việc cải thiện hiệu suất. Việc thiếu các tập dữ liệu được gắn nhãn đặt ra câu hỏi về khả năng áp dụng LLM vào CTI.
👍