この論文は、グラフおよびメッシュベースのフォーム分析作業に使用される既存のTransformerアーキテクチャの制限を克服するための新しいアプローチを提供します。従来のアプローチは、高価な固有値分解ベースの方法を必要とするスペクトル特性を大きく活用する伝統的なアテンションレイヤを使用しています。メッシュ構造をエンコードするために、これらの方法は、ラプラシアン行列または列カーネルシグネチャに基づく固有値分解演算に大きく依存する位置埋め込みを導出し、それを入力フィーチャに接続します。本論文では,離散外積積分から離散ホッジ演算子の積としてホジラプラシアン演算子を明示的に構成することからインスピレーションを得た新しい方法を提案する。つまり、 $(L := \star_0^{-1} d_0^T \star_1 d_0)$ です。本論文では、マルチヘッドアテンションメカニズムを活用して、ホッジ行列$\star_0$、$\star_1$、$\star_2$を近似し、メッシュ頂点、エッジ、面に作用する離散演算子$L$のファミリを学習する新しい深層学習レイヤでTransformerアーキテクチャを調整します。この研究のアプローチは、高価な固有値分解操作や複雑な前処理操作なしで直接学習フレームワークを介してメッシュ分割および分類作業で同様のパフォーマンスを達成する計算効率的なアーキテクチャを提供します。