Bài báo này đề cập đến việc bỏ học, một công nghệ mới nổi hỗ trợ quyền riêng tư dữ liệu, tuân thủ quy định và triển khai AI có đạo đức trong các mô hình ngôn ngữ quy mô lớn (LLM). Các kỹ thuật gần đây thường dựa vào việc che giấu, tức là ngăn chặn kiến thức bằng cách đưa vào thông tin không chính xác hoặc không liên quan. Tuy nhiên, cách tiếp cận này thường bổ sung kiến thức thay vì loại bỏ nó, khiến mô hình dễ bị giám sát. Bài báo này phân biệt chính thức giữa việc bỏ học và che giấu và trình bày một khuôn khổ đánh giá dựa trên giám sát để đánh giá liệu các phương pháp hiện có có thực sự loại bỏ thông tin mục tiêu hay không. Hơn nữa, chúng tôi đề xuất DF-MCQ, một phương pháp bỏ học mới có thể loại bỏ hiệu quả kiến thức về các cá nhân mục tiêu bằng cách làm phẳng phân phối dự đoán của mô hình cho các câu hỏi trắc nghiệm được tạo tự động bằng cách sử dụng phân kỳ KL, từ đó tạo ra hành vi từ chối phù hợp. Kết quả thực nghiệm chứng minh rằng DF-MCQ đạt tỷ lệ từ chối trên 90% và đạt được việc bỏ học với mức độ không chắc chắn cao hơn đáng kể so với phương pháp chọn ngẫu nhiên.