本論文は、大規模言語モデル(LLM)の訓練データに含まれる個人情報または著作権情報の記憶および漏洩問題を解決するための新しいアンランニングフレームワークであるDP2Unlearningを提示する。既存の再訓練方式はコストが過剰にかかり、近似アンランニングは忘却保証が不足しているという限界を持つ。 DP2Unlearningは訓練データにε差別プライバシー(DP)を適用し、訓練されたLLMを利用し、選択されたεによる情報漏洩防止保証とともに効率的なアンランニングを可能にする。実験の結果,DP2Unlearningは再訓練方式と同様の性能を示し,約半分のコストでアンランニングを行い,近似アンランニング方法よりもモデル有用性保存およびターゲット情報忘却の点で優れた性能を示す。