Cet article présente une nouvelle solution pour remédier à la dégradation des performances des modèles neuronaux de forme normale disjonctive (N-DNF). Nous démontrons que les modèles N-DNF existants souffrent d'une dégradation des performances due au seuillage lors du processus de transformation symbolique post-apprentissage, dû à l'incapacité de séparer les connaissances apprises représentées dans les pondérations du réseau. Nous abordons ce problème en proposant une nouvelle méthode de démêlage qui sépare les nœuds codant des règles imbriquées en nœuds plus petits et indépendants. Nous démontrons expérimentalement que cette méthode produit des représentations logiques plus compactes et interprétables pour les tâches de classification binaire, multi-classes et multi-étiquettes (y compris celles nécessitant l'invention de prédicats), obtenant des résultats plus proches des performances du modèle original.