Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Scalable Discrete Diffusion Samplers: Combinatorial Optimization and Statistical Physics

Created by
  • Haebom

作者

Sebastian Sanokowski, Wilhelm Berghammer, Martin Ennemoser, Haoyu Peter Wang, Sepp Hochreiter, Sebastian Lehner

概要

本論文は,離散領域における複雑な非正規化分布からのサンプリング学習に焦点を当てており,統計物理学,変分推論,組合せ最適化など様々な分野に応用可能性を提示する。従来の離散拡散モデルは、メモリスケーリングの問題により拡散ステップ数に制限がありました。これにより、メモリ効率の良いトレーニングを達成し、非マップの組み合わせ最適化で最先端の結果を得ました。また、SN-NISと神経マルコフチェーンモンテカルロ(MCMC)を適用して初めて離散拡散モデルを均一サンプリング問題に適用できるようにしました。

Takeaways、Limitations

Takeaways:
メモリ効率的な離散拡散モデル訓練方法の提示(政策傾斜とSN‐NIS利用)
非マップ組合せ最適化で最先端の性能を達成
離散拡散モデルを一様サンプリング問題に最初に適用
イージングモデルベンチマークにおける従来の自己回帰方式より優れた性能を実証
離散領域における様々な科学的応用への拡散モデルの適用性の拡張
Limitations:
提示された方法の一般的な離散分布に対する適用性と拡張性に関するさらなる研究の必要性
特定のベンチマーク(イージングモデル)のパフォーマンス評価を中心に、さまざまな問題領域の追加実験が必要です。
👍