Este artículo presenta una solución novedosa para abordar la degradación del rendimiento de los modelos neuronales de forma normal disyuntiva (N-DNF). Demostramos que los modelos N-DNF existentes sufren una degradación del rendimiento debido a la umbralización durante el proceso de transformación simbólica posterior al entrenamiento, lo cual se debe a la imposibilidad de separar el conocimiento aprendido representado en los pesos de la red. Abordamos este problema proponiendo un nuevo método de desenredo que separa los nodos que codifican reglas anidadas en nodos más pequeños e independientes. Demostramos experimentalmente que este método produce representaciones lógicas más compactas e interpretables para tareas de clasificación binaria, multiclase y multietiqueta (incluidas aquellas que requieren invención de predicados), logrando resultados más cercanos al rendimiento del modelo original.