高品質のトレーニングデータの不足により、生成型AIモデルの拡張が困難になっています。生成モデルを使用して合成データを生成し、それを実際のデータと共に fine-tuning に活用して性能向上を図る試みがありましたが、モデル自体の崩壊につながり、サンプル品質や多様性が低下する問題が発生しました。この論文では、この問題を解決するために、自己訓練から生じる性能低下を自己改善信号として活用する新しい学習方法であるNeon(Negative Extrapolation frOm self-traiNing)を提案します。 Neonは最初に独自の生成データを使用して基盤となるモデルを fine-tuning し、逆方向勾配更新を使用して、劣化した重みから逸脱する方向にモデルを学習します。 Neon は、予測可能な実データと合成データとの間の勾配不整合を修正し、モデルを実際のデータ分布に近づけるように調整します。この方法は、新しい実際のデータなしで簡単なポストホックマージを使用して実装でき、1,000個未満の合成サンプルでも効果的に機能し、追加のトレーニングコンピューティングリソースを1%未満で使用します。さまざまなアーキテクチャ(diffusion、flow matching、autoregressive、inductive moment matching models)とデータセット(ImageNet、CIFAR-10、FFHQ)に対するNeonの普遍性を実証しました。特に、ImageNet 256x256では、NeonはxAR-LモデルのFIDを1.02に向上させ、追加のトレーニングコンピューティングリソースはわずか0.36%でした。