[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Transformers from Diffusion: A Unified Framework for Neural Message Passing

Created by
  • Haebom

作者

Qitian Wu、David Wipf、Junchi Yan

概要

本論文は、さまざまな幾何構造(観測または非観測)を持つ構造化データの表現学習という基本的な問題について、メッセージ伝達ニューラルネットワーク(MPNN)に基づいてエネルギー制約拡散モデルを提案します。物理システムからインスピレーションを得て、多様体上の拡散の帰納的偏向とエネルギー最小化の階層別制約を統合します。拡散演算子と拡散過程によって暗示的に減少するエネルギー関数との間の一対一の対応関係を明らかにし,エネルギー制約拡散システムを解く有限差分反復が観測または潜在構造で動作する様々なタイプのMPNNの伝搬層を導くことを示した。これにより、MLP、GNN、Transformerなどのメッセージ配信(または特別な場合)で計算フローを表すことができる一般的なニューラルネットワークアーキテクチャの統合された数学的フレームワークが提供されます。この洞察に基づいて、原則に基づくエネルギー制約拡散フレームワークから導かれるグローバルアテンション層を持つ新しいタイプのニューラルメッセージ配信モデルであるDIFFormer(Diffusion-inspired Transformer)を考案します。実際のネットワーク、画像、テキスト、物理粒子など、さまざまなデータセットで、データ構造が観測(グラフ形式)、部分的に観測される、または完全に非観測されたシナリオでは、新しいモデルが有望なパフォーマンスを達成することを示しています。

Takeaways、Limitations

Takeaways:
さまざまな種類のMPNN(MLP、GNN、Transformerを含む)の統合された数学的フレームワークを提供します。
エネルギー制約の広がりに基づく新しい神経メッセージ伝達モデルであるDIFFormerの提案
観測、部分観測、非観測構造データの両方で優れた性能を達成
物理システムからインスピレーションを得た新しい視点を提示します。
Limitations:
提案されたモデルのスケーラビリティと計算の複雑さの追加分析が必要です。
さまざまなデータ型と構造の一般化パフォーマンス評価が必要です。
エネルギー関数の選択と最適化に関するさらなる研究が必要
👍