Bài báo này đề cập đến vấn đề máy học lại trong truy xuất thông tin thần kinh (IR) và đề xuất một nhiệm vụ mới có tên là Neural Machine UnRanking (NuMuR). Vấn đề này xuất hiện do nhu cầu ngày càng tăng về tuân thủ quyền riêng tư dữ liệu và loại bỏ thông tin có chọn lọc trong các hệ thống IR thần kinh. Các phương pháp bỏ học hiện có không phụ thuộc vào tác vụ hoặc mô hình chủ yếu được thiết kế cho các nhiệm vụ phân loại và do đó không tối ưu cho NuMuR. Điều này là do hai thách thức chính. Thứ nhất, các bộ xếp hạng thần kinh đưa ra điểm số liên quan không chuẩn hóa thay vì phân phối xác suất, điều này hạn chế hiệu quả của các khuôn khổ chắt lọc giáo viên-học sinh hiện có. Thứ hai, các kịch bản dữ liệu rối rắm trong đó các truy vấn và tài liệu xuất hiện đồng thời trong các tập dữ liệu cần bị lãng quên và cần được duy trì có thể làm giảm hiệu suất lưu giữ của các phương pháp hiện có. Để giải quyết những vấn đề này, chúng tôi đề xuất một khuôn khổ mục tiêu kép có tên là Mất mát tương phản và nhất quán (CoCoL). CoCoL bao gồm (1) một tổn thất tương phản duy trì hiệu suất của các mẫu rối trong khi giảm điểm liên quan của tập dữ liệu bị lãng quên, và (2) một tổn thất nhất quán duy trì độ chính xác của tập dữ liệu duy trì. Thông qua các thử nghiệm mở rộng trên bốn mô hình IR thần kinh trên các tập dữ liệu MS MARCO và TREC CAR, chúng tôi chứng minh rằng CoCoL đạt được hiệu suất lãng quên đáng kể với mức tổn thất hiệu suất duy trì và khái quát hóa tối thiểu. Phương pháp của chúng tôi cho phép loại bỏ dữ liệu hiệu quả và có thể kiểm soát hơn so với các kỹ thuật hiện có.