Les réseaux de neurones physiquement informatifs (PINN) constituent un cadre puissant pour la résolution d'équations aux dérivées partielles (EDP), intégrant directement les lois physiques à la fonction de perte. Cependant, le décalage interne des covariables (ICS), un problème d'optimisation fondamental, perturbe les distributions de caractéristiques et limite la puissance d'expression du modèle, entravant ainsi l'apprentissage fiable et efficace des PINN. Contrairement aux tâches d'apprentissage profond standard, les solutions existantes pour les ICS, telles que la normalisation par lots et la normalisation par couches, ne sont pas directement applicables aux PINN car elles altèrent la cohérence physique requise pour des solutions d'EDP fiables. Pour résoudre ce problème, cet article propose Mask-PINN, une nouvelle architecture qui module les distributions de caractéristiques tout en préservant les contraintes physiques fondamentales des PINN grâce à l'introduction d'une fonction de masque apprenable. Cet article fournit une analyse théorique démontrant que le masque supprime l'expansion des représentations de caractéristiques grâce à un mécanisme de modulation soigneusement conçu. Nous validons expérimentalement cette méthode sur plusieurs benchmarks d'EDP, notamment la convection, la propagation des ondes et l'équation de Helmholtz, pour diverses fonctions d'activation. Les résultats démontrent des améliorations constantes en termes de précision prédictive, de stabilité de la convergence et de robustesse. De plus, nous démontrons que les PINN masqués surmontent les principales limitations des cadres PINN existants, permettant une utilisation efficace de réseaux plus larges.