Cet article se concentre sur l'apprentissage par échantillonnage à partir de distributions irrégulières complexes dans le domaine discret, et présente des applications potentielles dans divers domaines tels que la physique statistique, l'inférence variationnelle et l'optimisation combinatoire. Les modèles de diffusion discrets conventionnels présentent un nombre limité d'étapes de diffusion en raison du problème de mise à l'échelle de la mémoire. Dans cet article, nous proposons deux nouvelles méthodes d'apprentissage, qui utilisent le théorème du gradient de politique et l'échantillonnage d'importance neuronale auto-normalisant (SN-NIS), pour obtenir un apprentissage économe en mémoire et des résultats de pointe en optimisation combinatoire non supervisée. De plus, en appliquant SN-NIS et la méthode de Monte Carlo par chaîne de Markov neuronale (MCMC), nous appliquons pour la première fois le modèle de diffusion discret aux problèmes d'échantillonnage uniforme et démontrons qu'il surpasse les approches autorégressives conventionnelles grâce au modèle d'Ising.