Dans cet article, nous présentons un nouveau cadre de réseaux de neurones gradués (GNN) construit sur l'espace vectoriel de grade $\V_\w^n$, qui étend les architectures de réseaux neuronaux traditionnels en intégrant la gradation algébrique. Nous introduisons des neurones de grade, des couches, des fonctions d'activation et des fonctions de perte qui s'adaptent à l'importance des caractéristiques en exploitant la structure de grade par coordonnées avec des actions scalaires $\lambda \star \x = (\lambda^{q_i} x_i)$, définies par des tuples $\w = (q_0, \ldots, q_{n-1})$. Après avoir établi les propriétés théoriques de l'espace de grade, nous présentons une conception GNN complète qui répond à des défis informatiques tels que la stabilité numérique et la mise à l'échelle du gradient. Les applications potentielles couvrent l'apprentissage automatique et les systèmes photoniques, illustrées par une implémentation basée sur un laser à haute vitesse. Ce travail constitue une étape fondamentale vers le calcul de grade qui allie rigueur mathématique et potentiel pratique, et ouvre la voie à de futures explorations empiriques et matérielles.