Cet article analyse la sous-utilisation des réseaux de neurones bayésiens (BNN) en raison de l'incohérence de la distribution de probabilité postérieure gaussienne standard avec la géométrie du réseau, de l'instabilité du terme KL en grandes dimensions et du manque de fiabilité de la correction d'incertitude malgré la complexité accrue de la mise en œuvre. Nous réexaminons le problème du point de vue de la régularisation et de l'incertitude du modèle en utilisant la distribution de probabilité postérieure de von Mises-Fisher, qui ne dépend que de la direction du poids. Cela produit un seul scalaire interprétable par couche, le bruit régularisé effectif ($\sigma_{\mathrm{eff}}$), qui correspond à un simple bruit gaussien additif dans la passe avant et permet une correction KL compacte, fermée et dimensionnelle. En dérivant une approximation fermée exacte entre la concentration $\kappa$, la variance d'activation et $\sigma_{\mathrm{eff}}$, nous créons une unité variationnelle légère et implémentable, adaptée aux architectures régularisées modernes et améliorant l'étalonnage sans sacrifier la précision. La prise en compte de la dimensionnalité est cruciale pour une optimisation stable dans les dimensions élevées, et nous montrons que les BNN peuvent être fondés sur des principes, pratiques et précis en alignant les probabilités postérieures variationnelles avec la géométrie intrinsèque du réseau.