Dans cet article, nous proposons une nouvelle architecture, le réseau de programmes latents (LPN). Le LPN combine la puissance de généralisation de la synthèse de programmes avec l'évolutivité de l'apprentissage profond en intégrant la recherche directe dans le modèle neuronal au moment du test. Pour résoudre le problème d'explosion combinatoire des méthodes de synthèse de programmes existantes et le manque d'adaptabilité au moment du test des méthodes d'apprentissage profond, le LPN apprend un espace latent de programmes implicites qui mappe les entrées aux sorties, et effectue une recherche dans cet espace à l'aide de gradients au moment du test. Il affiche des performances comparables, voire supérieures, aux méthodes existantes sur diverses tâches de programmation par exemples, sans nécessiter de langage spécifique prédéfini, et démontre sa capacité à apprendre et à explorer l'espace latent des programmes pour s'adapter à de nouvelles tâches sur le benchmark ARC-AGI. L'activation de la recherche au moment du test améliore les performances d'un facteur deux sur les tâches hors distribution.