マスク拡散言語モデル(MDLM)は高速で非自動回帰的なテキスト生成を約束しますが、既存のサンプラーはモデルの信頼性に基づいてトークンをマスクしないように複数の場所を並列的にマスクしないときに、相互作用を無視して遅い自動回帰動作に縮小されます。この論文では、希釈されたアンマスクスケジューラ(DUS)を提案します。 DUSは、推論専用のプランナーモデルフリーの方法でシーケンス位置を非隣接希釈グループに分割し、各ノイズ除去ステップで共同エントロピー利得の上限を最小限に抑えるために並列にアンマスクします。ネットワークコール数と生成品質の間のトレードオフを明示的にすることで、DUSは既存の並列アンマスク戦略で失われたパフォーマンスの大部分を回復します。数学(GSM8K、MATH500)、コード(HumanEval、MBPP)、および一般的な知識ベンチマーク(BBH、MMLU-Pro)では、DUSは基本的なデノイザーを変更することなく信頼性ベースのプランナーよりも優れており、MDLMの実際のスピード品質のフロンティアを示しています。