Bài báo này đề cập đến vấn đề máy học lại (machine unlearning), vốn duy trì hiệu suất mô hình trong khi loại bỏ dữ liệu cụ thể trong các hệ thống truy xuất thông tin thần kinh (IR). Việc áp dụng các phương pháp máy học lại hiện có vào IR có thể làm giảm hiệu quả truy xuất hoặc vô tình làm lộ nhiệm vụ bỏ học bằng cách loại bỏ các mục cụ thể khỏi kết quả tìm kiếm được hiển thị cho người dùng. Trong bài báo này, chúng tôi chính thức hóa việc bỏ thứ hạng hiệu chỉnh, mở rộng việc bỏ học máy trong bối cảnh IR (dựa trên mạng nơ-ron) bằng cách kết hợp các tài liệu thay thế để duy trì tính toàn vẹn của thứ hạng và đề xuất một khuôn khổ giáo viên-học sinh mới, Chưng cất bỏ thứ hạng hiệu chỉnh (CuRD), cho nhiệm vụ này. CuRD (1) tạo điều kiện cho việc quên bằng cách điều chỉnh mô hình IR mạng nơ-ron (đã được đào tạo) sao cho điểm số liên quan đầu ra của các mẫu cần quên bắt chước điểm số của các mẫu không thể tìm kiếm có thứ hạng thấp hơn, (2) cho phép hiệu chỉnh bằng cách tinh chỉnh điểm số liên quan của các mẫu thay thế để khớp với điểm số của các mẫu cần quên tương ứng và (3) cố gắng duy trì hiệu suất của các mẫu không bị quên. Chúng tôi đánh giá CuRD trên bốn mô hình mạng nơ-ron IR (BERTcat, BERTdot, ColBERT và PARADE) sử dụng bộ dữ liệu MS MARCO và TREC CAR. Các thử nghiệm với kích thước tập dữ liệu quên là 1% và 20% của bộ dữ liệu huấn luyện cho thấy CuRD vượt trội hơn bảy mô hình cơ sở tiên tiến về khả năng quên và hiệu chỉnh, đồng thời vẫn duy trì khả năng ghi nhớ và khái quát hóa mô hình.