Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Enseigner à l'enseignant : améliorer la distillabilité du réseau neuronal pour la régression symbolique via la régularisation jacobienne

Created by
  • Haebom

Auteur

Soumyadeep Dhar, Kei Sen Fong, Mehul Motani

Contour

Cet article propose une méthode permettant de distiller des réseaux neuronaux à grande échelle en formules symboliques simples et compréhensibles par l'homme. Les méthodes existantes souffrent du problème de la faible précision des modèles d'étudiants, car les fonctions apprises par les réseaux neuronaux complexes sont inadaptées à la découverte de symboles. Pour résoudre ce problème, cet article présente un nouveau paradigme d'apprentissage qui, au lieu de distiller manuellement des réseaux neuronaux pré-entraînés, introduit une régularisation jacobienne . Cela incite un réseau neuronal « enseignant » à apprendre des fonctions non seulement précises, mais aussi intrinsèquement lisses et adaptées à la distillation. Des expériences sur divers benchmarks de régression réels démontrent l'efficacité de la méthode proposée. En optimisant la force de régularisation pour chaque problème, nous obtenons une amélioration moyenne de 120 % (relative) du score $R^2$ du modèle symbolique final distillé par rapport à un pipeline de distillation standard , tout en maintenant la précision prédictive de l'enseignant. En conclusion, cette étude présente une méthode pratique et fondée sur des principes pour améliorer significativement la précision des modèles interprétables extraits de réseaux neuronaux complexes.

Takeaways, Limitations

Takeaways:
Nous démontrons que la régularisation basée sur Jacobian peut améliorer considérablement la précision des modèles symboliques lors de la distillation du réseau neuronal.
Nous présentons une nouvelle méthode permettant d’extraire efficacement des modèles compréhensibles et interprétables par l’homme à partir de réseaux neuronaux complexes.
Nous présentons des méthodologies pratiques applicables aux problèmes du monde réel.
Limitations:
L’efficacité de la méthode proposée repose sur l’optimisation de la force de régularisation pour chaque problème, et le processus d’optimisation lui-même peut entraîner des coûts de calcul supplémentaires.
Des recherches supplémentaires sont nécessaires sur les performances de généralisation sur différents types de réseaux neuronaux et d’ensembles de données.
Une analyse plus approfondie du contexte théorique de la régularisation basée sur le Jacobien peut être nécessaire.
👍