Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

SplitMeanFlow: Interval Splitting Consistency in Few-Step Generative Modeling

Created by
  • Haebom

作者

Yi Guo, Wei Wang, Zhihang Yuan, Rong Cao, Kuan Chen, Zhengyang Chen, Yuanyuan Huo, Yang Zhang, Yuping Wang, Shouda Liu, Yuxuan Wang

概要

本論文は,従来のFlow Matchingベース生成モデルの計算コストが高い反復サンプリング過程の問題を解決するために,ノイズをデータに直接マッピングする平均速度長学習に焦点を当てた研究である。具体的には、従来のMeanFlowモデルが微分恒等式を介して平均速度場を学習することの限界を指摘し、静積分の加算性を活用して新しい代数的恒等式「Interval Splitting Consistency」を提示します。この式に基づいて、微分演算子なしで平均速度場の自己参照関係を確立する新しい学習フレームワークであるSplitMeanFlowを提案します。 SplitMeanFlowは、MeanFlowの微分恒等式が、区間分割が無限に小さくなる極限として回復できることを証明し、より一般的で効率的なアプローチであることを示しています。 JVP計算が不要で実装が簡単で、トレーニングが安定し、ハードウェア互換性が広いという実用的な利点もあります。実際、大規模な音声合成製品(Doubaoなど)に適用され、20倍の速度向上を達成しました。

Takeaways、Limitations

Takeaways:
従来のMeanFlowの微分ベースのアプローチよりも一般的で効率的な平均スピードフィールド学習フレームワークであるSplitMeanFlowを提示します。
JVP計算不要による実装の簡素化、トレーニングの安定性の向上、ハードウェアの互換性の拡大。
大規模な音声合成製品に適用され、速度向上(20倍)を実際に検証。
静積分の加算性を用いた新しい代数的恒等式「Interval Splitting Consistency」の提示
Limitations:
この論文で提示されているSplitMeanFlowの性能が、さまざまな生成モデルとデータセットに対してどの程度一般化できるかについてのさらなる研究が必要です。
Interval Splitting Consistencyの理論的限界と適用可能な問題領域の範囲に関するさらなる分析の必要性
他の高速生成モデルとの比較分析がさらに必要。
👍