この論文は、ツールベースの拡張言語モデル(LLM)から特定のツールの学習内容を排除する「ツールアンラーニング(tool unlearning)」という新しい課題を提示します。従来のアンランニングとは異なり、個々のサンプルではなく知識自体を排除する必要があり、LLM最適化の高コストと原則的な評価指標の必要性などの困難が存在します。これらの問題を解決するために、本稿では、ツールベースのLLMでツールを効果的に展開するための最初のアプローチであるToolDeleteを提案します。 ToolDeleteは、効果的なツールアンランニングのための3つの主要な属性を実装し、効果的な評価のための新しいメンバーシップ推論攻撃(MIA)モデルを導入します。さまざまなツール学習データセットとツールベースのLLMの広範な実験により、ToolDeleteはランダムに選択されたツールを効果的に展開し、削除されていないツールに関するLLMの知識と一般的なタスクのパフォーマンスを維持します。