[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Inversion-DPO: Precise and Efficient Post-Training for Diffusion Models

Created by
  • Haebom

作者

Zejian Li, Yize Li, Chenye Meng, Zhongni Liu, Yang Ling, Shengyuan Zhang, Guang Yang, Changyuan Yang, Zhiyuan Yang, Lingyun Sun

概要

この論文では、拡散モデル(Diffusion Models、DM)のアライメントのための新しいフレームワークであるInversion-DPOを提案します。従来の方法は、補償モデル学習に多くの計算コストがかかり、モデル精度とトレーニング効率を阻害する問題がありました。 Inversion-DPOは、DDIM inversionを使用して直接選好最適化(Direct Preference Optimization、DPO)を再構成することで補償モデルを必要としません。拡散-DPOでの複雑な事後確率サンプリングを決定論的な変換によって置き換えることによって、新しい事後訓練パラダイムを提示します。これにより、精度と効率が大幅に向上し、テキスト画像の作成と複合画像の作成作業に適用され、従来の方法よりも優れた性能を示すことが実験的に実証されます。複合画像生成のためのポストトレーニングには、11,140の複雑な構造注釈と包括的なスコアを持つペアのデータセットを活用しました。

Takeaways、Limitations

Takeaways:
補償モデルなしで拡散モデルの整列を効率的かつ正確に実行するための新しい方法の提示
DDIM inversionによるDPO再構成による計算コストの削減とモデル性能の向上
複合画像生成などの複雑な生成作業に対する拡散モデルの適用性の拡大
高品質で複合的に一貫した画像生成能力を向上
Limitations:
提案された方法の一般化性能に関するさらなる研究の必要性
さまざまな種類の作成タスクに適用可能性検証が必要
提示されたデータセットの制限と他のデータセットのパフォーマンス評価が必要
👍