Las Redes Neuronales Físicamente Informativas (PINN) constituyen un potente marco para la resolución de ecuaciones diferenciales parciales (EDP), incorporando directamente las leyes físicas en la función de pérdida. Sin embargo, el desplazamiento interno de covariables (ICS), un problema fundamental de optimización, altera las distribuciones de características y limita la capacidad expresiva del modelo, lo que dificulta el entrenamiento fiable y eficaz de las PINN. A diferencia de las tareas estándar de aprendizaje profundo, las soluciones existentes para ICS, como la normalización por lotes y la normalización por capas, no son directamente aplicables a las PINN porque distorsionan la consistencia física necesaria para soluciones de EDP fiables. Para abordar este problema, este artículo propone Mask-PINN, una arquitectura novedosa que modula las distribuciones de características, preservando las restricciones físicas fundamentales de las PINN mediante la introducción de una función de máscara aprendible. Este artículo proporciona un análisis teórico que demuestra que la máscara suprime la expansión de las representaciones de características mediante un mecanismo de modulación cuidadosamente diseñado. Experimentalmente, validamos este método en diversos parámetros de EDP, como la convección, la propagación de ondas y la ecuación de Helmholtz, a través de diversas funciones de activación. Los resultados demuestran mejoras consistentes en la precisión predictiva, la estabilidad de la convergencia y la robustez. Además, demostramos que las Mask-PINN superan las principales limitaciones de los marcos PINN existentes, lo que permite el uso eficaz de redes más amplias.