本論文は、ニューラル情報検索(IR)における機械非学習(machine unlearning)問題を扱い、ニューラルマシンの非順位化(Neural Machine UnRanking、NuMuR)という新しい課題を提示します。これは、データのプライバシーへの準拠とニューラルIRシステムからの選択的情報の除去の必要性の増加に伴って登場した問題です。従来の課題やモデルに関係のない学習方法は、主に分類課題のために設計されているため、NuMuRには最適ではありません。これは、2つの重要な課題によるものです。まず、ニューラルランキングは、確率分布ではなく正規化されていない関連性スコアを出力して、既存の教師 - 学生蒸留フレームワークの効率を制限します。第二に、忘れなければならないデータセットと維持する必要があるデータセットにクエリとドキュメントが同時に表示されるもつれたデータシナリオは、従来の方法で維持パフォーマンスを低下させる可能性があります。これらの問題を解決するために、対照的で一貫した損失(Contrastive and Consistent Loss、CoCoL)という二重目標フレームワークを提案します。 CoCoLは、(1)忘れなければならないデータセットの関連性スコアを減らしながらもつれたサンプルのパフォーマンスを維持する対照損失と、(2)保持データセットの精度を維持する一貫した損失で構成されています。 MS MARCO および TREC CAR データセットにおける 4 つの神経 IR モデルの広範な実験により、CoCoL は最小限の維持および一般化性能の損失で大幅な忘却を達成することを示しています。この方法は、従来技術よりも効果的で制御可能なデータ除去を可能にします。