本論文では,拡散ベースの生成モデルの性能向上のための新しい正規化手法「Dispersive Loss」を提案した。既存の拡散モデルは回帰ベースの目的関数に依存しており、明示的な正規化が不足しており、Dispersive Lossは隠蔽空間内の内部表現の分散を導き、それを解決します。対照学習と類似しているが、陽性サンプル対が必要ないことが特徴であり、したがって回帰に使用されるサンプリングプロセスに干渉しない。従来の表現アライメント(REPA)手法と比較して、事前学習、追加のパラメータ、および外部データが不要であるという利点があり、ImageNetデータセットでさまざまなモデルの実験を通じて既存の最高性能モデルを上回る結果を示しました。これは、生成モデリングと表現学習との間のギャップを埋めるのに寄与することが期待される。