Cet article propose une nouvelle approche pour améliorer l'efficacité des architectures Transformer existantes appliquées aux graphes et aux maillages pour les tâches d'analyse morphologique. Les méthodes existantes utilisent des couches d'attention traditionnelles qui exploitent largement les caractéristiques spectrales, nécessitant des méthodes coûteuses basées sur la décomposition des valeurs propres. Pour coder les structures de maillage, ces méthodes dérivent des plongements positionnels, qui s'appuient fortement sur des opérations basées sur la décomposition des valeurs propres à partir des signatures de la matrice laplacienne ou du noyau de colonnes, puis les concatènent aux caractéristiques d'entrée. Cet article présente une nouvelle approche inspirée de la construction explicite de l'opérateur laplacien de Hodge en calcul externe discret, exprimé comme le produit de l'opérateur de Hodge discret et de la dérivée externe ($L := \star_0^{-1} d_0^T \star_1 d_0$). Cet article adapte l'architecture Transformer à une nouvelle couche d'apprentissage profond qui approxime les matrices de Hodge $\star_0$, $\star_1$ et $\star_2$ grâce à un mécanisme d'attention multi-têtes et apprend une famille d'opérateurs discrets L agissant sur les sommets, les arêtes et les faces du maillage. Notre approche crée une architecture performante en termes de calcul, permettant d'obtenir des performances comparables pour les tâches de segmentation et de classification de maillage grâce à un cadre d'apprentissage direct, sans opérations coûteuses de décomposition des valeurs propres ni opérations de prétraitement complexes.