本論文は,自己回帰言語モデルの速度限界を克服するために拡散ベース言語モデルを提示した。拡散ベースのモデルは並列に複数のトークンをデコードできますが、入力コンテキストから離れたトークンが非関連または反復的な「長いデコードウィンドウの問題」を持つことを明らかにします。これを解決するために、ハードセグメンテーションなしでデコードウィンドウを絞り込む正規化ベースの方法である Convolutional decoding (Conv) を提案し、コンテキストから遠い位置のトークン整列を改善する Rejecting Rule-based Fine-Tuning (R2FT) 事後学習手法を導入します。その結果、従来の方法よりもはるかに少ないステップ数でオープン生成ベンチマークで最先端のパフォーマンスを達成し、速度と品質の両方を向上させました。