Este artículo propone un enfoque novedoso para mejorar la eficiencia de las arquitecturas Transformer existentes aplicadas a grafos y mallas para tareas de análisis morfológico. Los métodos existentes emplean capas de atención tradicionales que utilizan en gran medida características espectrales, lo que requiere costosos métodos basados en la descomposición de valores propios. Para codificar las estructuras de malla, estos métodos derivan incrustaciones posicionales, que dependen en gran medida de operaciones basadas en la descomposición de valores propios a partir de las firmas de la matriz o núcleo de columna laplaciana, y luego las concatenan con las características de entrada. Este artículo presenta un enfoque novedoso inspirado en la construcción explícita del operador laplaciano de Hodge en cálculo externo discreto, que se expresa como el producto del operador de Hodge discreto y la derivada externa ($L := \star_0^{-1} d_0^T \star_1 d_0$). Este artículo adapta la arquitectura Transformer a una nueva capa de aprendizaje profundo que aproxima las matrices de Hodge $\star_0$, $\star_1$ y $\star_2$ mediante un mecanismo de atención multicabezal y aprende una familia de operadores discretos L que actúan sobre vértices, aristas y caras de la malla. Nuestro enfoque crea una arquitectura computacionalmente eficiente que logra un rendimiento comparable en tareas de segmentación y clasificación de mallas mediante un marco de aprendizaje directo, sin costosas operaciones de descomposición de valores propios ni complejas operaciones de preprocesamiento.