この論文は、神経情報検索(IR)システムから特定のデータを削除しながらモデルのパフォーマンスを維持するための機械的未学習の問題を扱います。既存の機械的学習方法をIRに適用すると、検索効率が低下したり、ユーザーに提示されている検索結果から特定の項目が削除されたりすることで、学習が意図せずに公開される可能性があります。この論文では、順位の整合性を維持するために代替文書を統合することによって(ニューラルネットワークベースの)IRコンテキストで機械的ランニングを拡張する修正順位付けを定式化し、この作業のための新しい教師 - 学生フレームワークである修正順位蒸留(Corrective unRanking Distillation、CuRD)を提案します。 CuRDは、(1)忘れなければならないサンプルの出力関連性スコアがランキングの低い検索不可能なサンプルのスコアを模倣するように(訓練された)ニューラルネットワークIRモデルを調整して忘却を容易にし、(2)代替サンプルの関連性スコアが該当する忘れなければならないサンプルのスコアと一致するように微調整することで修正を可能にします.(3) MS MARCOとTREC CARデータセットを使用して、4つのニューラルネットワークIRモデル(BERTcat、BERTdot、ColBERT、PARADE)でCuRDを評価します。トレーニングデータセットの1%と20%の忘却セットサイズの実験は、CuRDがモデルの維持と一般化能力を維持しながら、忘却と修正の点で7つの最先端ベースラインを上回ることを示しています。