Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

Liệu LLM có đủ để phát hiện nội dung cực đoan, giả mạo, phân cực và có hại? Đánh giá việc học trong ngữ cảnh so với tinh chỉnh

Created by
  • Haebom

Tác giả

Michele Joshua Maggini, Dhia Merzougui, Rabiraj Bandyopadhyay, Ga el Dias, Fabrice Maurel, Pablo Gamallo

Phác thảo

Bài báo này đánh giá toàn diện hiệu suất của các mô hình ngôn ngữ quy mô lớn (LLM), vốn đang thu hút sự chú ý như một biện pháp đối phó với sự lan tràn của tin giả, thiên kiến ​​cực đoan và nội dung độc hại trên các nền tảng trực tuyến, trên nhiều mô hình, phương pháp sử dụng và ngôn ngữ khác nhau. Sử dụng mười tập dữ liệu và năm ngôn ngữ (tiếng Anh, tiếng Tây Ban Nha, tiếng Bồ Đào Nha, tiếng Ả Rập và tiếng Bulgaria), chúng tôi đã so sánh và phân tích thực nghiệm các mô hình thích ứng LLM trong các kịch bản nhị phân và đa lớp. Chúng tôi đã thử nghiệm nhiều chiến lược học tập trong ngữ cảnh, bao gồm tinh chỉnh hiệu quả tham số, gợi ý zero-shot, sổ mã, học tập few-shot (bao gồm lựa chọn ngẫu nhiên và các ví dụ trắc nghiệm dựa trên DPP) và chuỗi suy nghĩ.

Takeaways, Limitations

_____T216276____-: Bài báo này cung cấp một phân tích so sánh toàn diện về các mô hình, ngôn ngữ và phương pháp khác nhau để phát hiện tin giả và nội dung độc hại bằng LLM. Cụ thể, bài báo chứng minh rằng tinh chỉnh vượt trội hơn học theo ngữ cảnh, nhấn mạnh tầm quan trọng của việc tinh chỉnh theo từng tác vụ cụ thể ngay cả đối với các mô hình nhỏ. Kết quả thử nghiệm được trình bày, bao gồm các mô hình lớn nhất, bao gồm LLaMA3.1-8b-Instruct, Mistral-Nemo-Instruct-2407 và Qwen2.5-7B-Instruct.
Limitations: Các tập dữ liệu và ngôn ngữ được đề cập trong nghiên cứu này có thể không bao hàm tất cả các khả năng. Có khả năng kết quả có thể bị thiên lệch về một số ngôn ngữ hoặc tập dữ liệu nhất định. Cần nghiên cứu thêm để xác định khả năng khái quát hóa của kết quả đối với các loại tin tức giả mạo hoặc nội dung độc hại mới.
👍