Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Inversion-DPO: Precise and Efficient Post-Training for Diffusion Models

Created by
  • Haebom

作者

Zejian Li, Yize Li, Chenye Meng, Zhongni Liu, Yang Ling, Shengyuan Zhang, Guang Yang, Changyuan Yang, Zhiyuan Yang, Lingyun Sun

概要

この論文では、拡散モデル(Diffusion Models、DM)のアライメントのための新しいフレームワークであるInversion-DPOを提案します。従来の方法は、補償モデル学習に多くの計算コストがかかり、モデル精度とトレーニング効率を阻害する問題がありました。 Inversion-DPO は、DDIM inversion を使用して Direct Preference Optimization (DPO) を再構成することで補償モデルの学習を省略します。拡散DPOで困難な事後確率サンプリングを勝者と敗者のサンプルからノイズへの決定的な転換によって行い,新しいポストトレーニングパラダイムを提示する。これにより、補償モデルがなくても精度と効率が大幅に向上します。テキスト画像の作成と複合画像の作成操作にInversion-DPOを適用することで、従来の方法よりもパフォーマンスが向上し、高品質で複合的に一貫した画像生成能力を示しています。複合画像の作成 post-training のために、11,140 個の複雑な構造的注釈と総合的なスコアを含むペアのデータセットを新しく構成しました。 Inversion-DPOは効率的で正確な拡散モデルの整列のための新しい方法を提供し、複雑な現実的な作成作業に適用可能性を高めます。コードはhttps://github.com/MIGHTYEZ/Inversion-DPOで確認できます。

Takeaways、Limitations

Takeaways:
補償モデル学習なしで拡散モデルの整列を効率的に実行するための新しい方法を提示します。
従来の方法と比較して改善された精度と訓練効率を達成
複合画像生成などの複雑な作業における高品質画像生成性能の向上
複合画像を生成するための新しいPaired datasetを提供します。
Limitations:
提案された方法の一般化性能に関するさらなる研究の必要性
様々なタスクに対する適用性と性能比較研究が必要
提示されたペイリングされたデータセットの規模と多様性に対する限界の存在の可能性
👍