Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Neon: Negative Extrapolation From Self-Training Improves Image Generation

Created by
  • Haebom

作者

Sina Alemohammad, Zhangyang Wang, Richard G. Baraniuk

概要

高品質のトレーニングデータの不足により、生成型AIモデルの拡張が困難になっています。生成モデルを使用して合成データを生成し、それを実際のデータと共に fine-tuning に活用して性能向上を図る試みがありましたが、モデル自体の崩壊につながり、サンプル品質や多様性が低下する問題が発生しました。この論文では、この問題を解決するために、自己訓練から生じる性能低下を自己改善信号として活用する新しい学習方法であるNeon(Negative Extrapolation frOm self-traiNing)を提案します。 Neonは最初に独自の生成データを使用して基盤となるモデルを fine-tuning し、逆方向勾配更新を使用して、劣化した重みから逸脱する方向にモデルを学習します。 Neon は、予測可能な実データと合成データとの間の勾配不整合を修正し、モデルを実際のデータ分布に近づけるように調整します。この方法は、新しい実際のデータなしで簡単なポストホックマージを使用して実装でき、1,000個未満の合成サンプルでも効果的に機能し、追加のトレーニングコンピューティングリソースを1%未満で使用します。さまざまなアーキテクチャ(diffusion、flow matching、autoregressive、inductive moment matching models)とデータセット(ImageNet、CIFAR-10、FFHQ)に対するNeonの普遍性を実証しました。特に、ImageNet 256x256では、NeonはxAR-LモデルのFIDを1.02に向上させ、追加のトレーニングコンピューティングリソースはわずか0.36%でした。

Takeaways、Limitations

Takeaways:
自己訓練に起因するモデル崩壊を克服する新しい学習方法の提示
さまざまな生成型AIモデルとデータセットに適用可能。
少数の合成データと少ない追加のコンピューティングリソースでも効果的なパフォーマンス向上
ImageNet 256x256で新しいSOTA(State-of-the-art)を達成.
Limitations:
論文で提示した方法の一般化の可能性と長期的な効果に関するさらなる研究の必要性
モデル崩壊現象に対するNeonの依存性があるかもしれません。 (克服、防止方法)
特定のアーキテクチャとデータセットの追加実験が必要です。
👍