Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Neon: Negative Extrapolation From Self-Training Improves Image Generation

Created by
  • Haebom

作者

Sina Alemohammad, Zhangyang Wang, Richard G. Baraniuk

概要

本論文は、高品質のトレーニングデータ不足の問題を解決するために提案された新しい学習方法であるネオン(ネガティブエクストラポリションFrOm self-traiNing)を紹介します。 Neonは、生成モデルの自己合成データを使用してモデルを微調整する過程で発生するモデル自己摂食障害(MAD)問題を解決します。 Neonは、モデルのパフォーマンスを向上させるために、逆勾配更新によって学習されたモデルの重みを拡張します。 Neonはさまざまなアーキテクチャとデータセットに適用でき、追加のトレーニングリソースをほとんど使用せずに優れたパフォーマンスを発揮します。

Takeaways、Limitations

Takeaways:
自己訓練によって得られたデータを活用して生成モデルの性能を効果的に改善する新しい学習方法の提示
モデル自己摂食障害(MAD)の問題を解決し、モデルのサンプル品質の低下を防ぎます。
さまざまなアーキテクチャやデータセットに適用可能で、少ないトレーニングリソースで高性能を実現。
ImageNet 256x256データセットで新しいSOTA FIDを達成。
Limitations:
論文に記載されているLimitationsはありません。
👍