Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Diffusion Language Models Know the Answer Before Decoding

Created by
  • Haebom

作者

Pengxiang Li, Yefan Zhou, Dilxat Muhtar, Lu Yin, Shilin Yan, Li Shen, Yi Liang, Soroush Vosoughi, Shiwei Liu

概要

Diffusion言語モデル(DLM)は並列シーケンス生成と柔軟なトークン順序を提供しますが、双方向アテンションのコストと高品質出力のための多くの精製ステップのために、推定速度は自己回帰モデルよりも遅いです。本研究では、DLMの早期応答収束特性を利用して、最終復号段階の半分の段階で正解を内部的に識別できることを見出した。これに基づいて、Prophetを導入して訓練なしで早期コミットデコードを可能にする。 Prophetは、上位2つの予測候補間の信頼度の差に基づいて精製を継続するかどうかを動的に決定します。 LLaDA-8BおよびDream-7Bの実験の結果、Prophetはデコードステップを最大3.4倍に減らし、高い生成品質を維持しました。

Takeaways、Limitations

DLM推論速度を向上させる新しいアプローチを提示する:早期応答収束特性を利用したProphet。
追加のトレーニングなしで既存のDLM実装に統合可能でオーバーヘッドが少ない。
デコードステップを大幅に減らし、推論速度を向上させます。
DLMの早期収束現象のより深い理解を提供
現在の研究は、LLaDA-8BおよびDream-7Bモデルの実験結果のみを示しています。
他のDLMアーキテクチャと大規模モデルのスケーラビリティ検証が必要
早期コミット決定基準である信頼度差の最適化に関するさらなる研究が必要
👍