본 논문은 신경 정보 검색(Neural Information Retrieval, IR)에서 기계 비학습(machine unlearning) 문제를 다루며, 신경 기계 비순위화(Neural Machine UnRanking, NuMuR)라는 새로운 과제를 제시합니다. 데이터 프라이버시 준수 및 신경 IR 시스템에서의 선택적 정보 제거에 대한 요구 증가에 따라 등장한 문제입니다. 기존의 과제 또는 모델에 무관한 비학습 방법들은 주로 분류 과제를 위해 설계되었기 때문에 NuMuR에는 최적이 아닙니다. 이는 두 가지 핵심적인 과제 때문입니다. 첫째, 신경 순위 지정기는 확률 분포가 아닌 정규화되지 않은 관련성 점수를 출력하여 기존의 교사-학생 증류 프레임워크의 효율성을 제한합니다. 둘째, 잊어야 할 데이터셋과 유지해야 할 데이터셋에 질의와 문서가 동시에 나타나는 얽힌 데이터 시나리오는 기존 방법에서 유지 성능을 저하시킬 수 있습니다. 이러한 문제를 해결하기 위해 대조적이고 일관된 손실(Contrastive and Consistent Loss, CoCoL)이라는 이중 목표 프레임워크를 제안합니다. CoCoL은 (1) 잊어야 할 데이터셋의 관련성 점수를 줄이면서 얽힌 샘플의 성능을 유지하는 대조 손실과 (2) 유지 데이터셋의 정확도를 보존하는 일관된 손실로 구성됩니다. MS MARCO 및 TREC CAR 데이터셋에서 네 가지 신경 IR 모델에 대한 광범위한 실험을 통해 CoCoL이 최소한의 유지 및 일반화 성능 손실로 상당한 망각을 달성함을 보여줍니다. 본 방법은 기존 기술보다 더 효과적이고 제어 가능한 데이터 제거를 가능하게 합니다.