Bài báo này đánh giá toàn diện hiệu suất của các mô hình ngôn ngữ quy mô lớn (LLM), vốn đang thu hút sự chú ý như một biện pháp đối phó với sự lan tràn của tin giả, thiên kiến cực đoan và nội dung độc hại trên các nền tảng trực tuyến, trên nhiều mô hình, phương pháp sử dụng và ngôn ngữ khác nhau. Sử dụng mười tập dữ liệu và năm ngôn ngữ (tiếng Anh, tiếng Tây Ban Nha, tiếng Bồ Đào Nha, tiếng Ả Rập và tiếng Bulgaria), chúng tôi đã so sánh và phân tích thực nghiệm các mô hình thích ứng LLM trong các kịch bản nhị phân và đa lớp. Chúng tôi đã thử nghiệm nhiều chiến lược học tập trong ngữ cảnh, bao gồm tinh chỉnh hiệu quả tham số, gợi ý zero-shot, sổ mã, học tập few-shot (bao gồm lựa chọn ngẫu nhiên và các ví dụ trắc nghiệm dựa trên DPP) và chuỗi suy nghĩ.