Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Diffuse and Disperse: Image Generation with Representation Regularization

Created by
  • Haebom

作者

Runqian Wang, Kaiming He

概要

本論文では,拡散ベースの生成モデルの性能向上のための新しい正規化手法「Dispersive Loss」を提案した。既存の拡散モデルは回帰ベースの目的関数に依存しており、明示的な正規化が不足しており、Dispersive Lossは隠蔽空間内の内部表現の分散を導き、それを解決します。対照学習と類似しているが、陽性サンプル対が必要ないことが特徴であり、したがって回帰に使用されるサンプリングプロセスに干渉しない。従来の表現アライメント(REPA)手法と比較して、事前学習、追加のパラメータ、および外部データが不要であるという利点があり、ImageNetデータセットでさまざまなモデルの実験を通じて既存の最高性能モデルを上回る結果を示しました。これは、生成モデリングと表現学習との間のギャップを埋めるのに寄与することが期待される。

Takeaways、Limitations

Takeaways:
拡散ベースの生成モデルの性能を向上させるシンプルで効果的な正規化手法であるDispersive Lossを提示します。
従来の方法とは異なり、事前学習、追加パラメータ、外部データを必要とせずにパフォーマンスを向上させます。
生成モデリングと表現学習との融合に寄与する可能性を提示する。
ImageNet実験結果によりDispersive Lossの卓越性を検証
Limitations:
Dispersive Lossの効果がImageNetデータセットに限定される可能性。
Dispersive Lossの動作原理の理論的分析の欠如より深い分析により、パフォーマンス向上のメカニズムを明確に究明する必要があります。
さまざまな拡散モデルアーキテクチャの広範な実験はまだ欠けています。他のアーキテクチャでのパフォーマンスと一般化のパフォーマンスを確認する必要があります。
👍