この論文は、形態解析作業のためのグラフおよびメッシュに適用される既存のTransformerアーキテクチャの効率を改善する新しい方法を提案します。従来の方法は、高価な固有値分解ベースの方法を必要とするスペクトル特性を多く使用する従来のアテンションレイヤを使用しています。メッシュ構造をエンコードするために、これらの方法は、ラプラシアン行列または列カーネルシグネチャの固有値分解に基づく演算に大きく依存する位置埋め込みを導き出し、入力フィーチャに接続します。この論文は、離散外積分積分におけるHodge Laplacian演算子の明示的な構成に触発された新しいアプローチを提示します。これは、離散 Hodge 演算子と外積微分の積で表されます。 ($L := \star_0^{-1} d_0^T \star_1 d_0$)。この論文では、マルチヘッドアテンションメカニズムを活用して、Hodge行列$\star_0$、$\star_1$、$\star_2$を近似し、メッシュ頂点、エッジ、面に作用する離散演算子Lのファミリを学習する新しいディープラーニングレイヤでTransformerアーキテクチャを調整します。この論文のアプローチは、高価な固有値分解操作や複雑な前処理操作なしで直接学習フレームワークを介してメッシュ分割および分類操作で同様のパフォーマンスを達成する計算効率的なアーキテクチャを作成します。