Este artículo analiza la infrautilización de las redes neuronales bayesianas (BNN) debido a la inconsistencia de la distribución de probabilidad posterior gaussiana estándar con la geometría de la red, la inestabilidad del término KL en dimensiones altas y la corrección de la incertidumbre poco fiable a pesar de la mayor complejidad de implementación. Reconsideramos el problema desde una perspectiva de regularización y modelamos la incertidumbre utilizando la distribución de probabilidad posterior de von Mises-Fisher, que depende únicamente de la dirección del peso. Esto produce un único escalar interpretable por capa, el ruido regularizado efectivo ($\sigma_{\mathrm{eff}}$), que corresponde al ruido gaussiano aditivo simple en el paso directo y permite una corrección KL compacta, de forma cerrada y con conocimiento de las dimensiones. Al derivar una aproximación exacta de forma cerrada entre la concentración $\kappa$, la varianza de activación y $\sigma_{\mathrm{eff}}$, creamos una unidad variacional ligera e implementable que se adapta a las arquitecturas regularizadas modernas y mejora la calibración sin sacrificar la precisión. El conocimiento de la dimensionalidad es crucial para una optimización estable en altas dimensiones, y demostramos que las BNN pueden ser prácticas, precisas y basadas en principios al alinear las probabilidades posteriores variacionales con la geometría intrínseca de la red.