Bài báo này tập trung vào phản biện (bác bỏ) như một chiến lược để chống lại nội dung trực tuyến độc hại (thuyết âm mưu). Do phản biện do chuyên gia điều khiển gặp khó khăn trong việc mở rộng quy mô, chúng tôi đề xuất một phương pháp sử dụng các mô hình ngôn ngữ quy mô lớn (LLM). Tuy nhiên, chúng tôi nhấn mạnh việc thiếu một bộ dữ liệu phản biện cho các thuyết âm mưu. Chúng tôi đánh giá khả năng tạo phản biện của các mô hình GPT-4o, Llama 3 và Mistral bằng cách sử dụng các gợi ý có cấu trúc dựa trên nghiên cứu tâm lý. Kết quả thực nghiệm cho thấy các mô hình này có xu hướng tạo ra kết quả chung chung, lặp lại và hời hợt, nhấn mạnh quá mức nỗi sợ hãi, và bịa đặt các sự kiện, nguồn và số liệu. Điều này cho thấy các phương pháp tiếp cận dựa trên gợi ý đặt ra những thách thức cho việc ứng dụng thực tế.