Afin de relever le défi du renforcement des contraintes sur les sorties des réseaux neuronaux dans les applications de contrôle critiques pour la sécurité, cet article propose une méthode d'apprentissage des réseaux neuronaux. Celle-ci permet d'obtenir des images précises d'ensembles d'entrées non convexes pour les réseaux neuronaux présentant des non-linéarités ReLU afin d'éviter les régions dangereuses non convexes. Cette méthode est réalisée par une analyse d'accessibilité utilisant une représentation étendue d'ensembles zonotopiques hybrides permettant la détection différentiable des collisions par programmation linéaire en nombres entiers mixtes (MILP). Cette méthode s'est avérée efficace et rapide pour les réseaux jusqu'à 240 neurones, et sa complexité de calcul est dominée par des opérations inverses sur des matrices qui évoluent linéairement avec le nombre de neurones et la complexité des ensembles d'entrée et dangereux. Nous démontrons son utilité pour l'apprentissage de contrôleurs de réseaux neuronaux invariants vers l'avant pour les systèmes dynamiques affines présentant des ensembles d'entrées non convexes et pour la génération de plans d'évitement d'accessibilité sûrs pour les systèmes dynamiques de type boîte noire.