Cet article se concentre sur la modélisation des représentations latentes dans l'espace hypersphérique, efficace pour capturer la similarité directionnelle des données textuelles de grande dimension. Les modèles de réseaux neuronaux à auto-encodeurs variationnels conventionnels (VAE-NTM) utilisent la distribution a priori de von Mises-Fisher pour coder les structures hypersphériques, mais ils ne parviennent souvent pas à obtenir des représentations latentes efficaces en raison du problème d'effondrement postérieur. Pour résoudre ce problème, nous proposons dans cet article l'auto-encodeur sphérique de Wasserstein en tranches pour la modélisation de sujets (S2WTM), qui aligne la distribution a posteriori agrégée et la distribution a priori en exploitant la distance de Wasserstein en tranches hypersphériques. Les résultats expérimentaux montrent que S2WTM surpasse les modèles de sujets de pointe existants, génère des sujets plus cohérents et diversifiés, et améliore les performances des tâches en aval.