Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Alignement des représentations visuelles des machines et des humains à travers les niveaux d'abstraction

Created by
  • Haebom

Auteur

Lukas Muttenthaler, Klaus Greff, Frieda Born, Bernhard Spitzer, Simon Kornblith, Michael C. Mozer, Klaus-Robert Muller , Thomas Unterthiner, Andrew K. Lampinen

Contour

Cet article souligne que, si les réseaux de neurones profonds ont fait leurs preuves en tant que modèles de représentation neuronale pour le comportement humain et les tâches visuelles, leur apprentissage est fondamentalement différent de celui de l'apprentissage humain et leur capacité de généralisation est limitée. Une divergence majeure réside dans l'organisation hiérarchique des connaissances conceptuelles humaines, allant du niveau le plus fin au niveau macroscopique, tandis que les représentations des modèles ne parviennent pas à capturer avec précision tous ces niveaux d'abstraction. Pour remédier à ce problème, nous entraînons un modèle d'enseignant à imiter le jugement humain, puis affinons les représentations d'un modèle pré-entraîné, basé sur la vision, afin de transférer une structure alignée sur l'humain. Le résultat est un modèle aligné sur l'humain qui approxime plus précisément le comportement humain et l'incertitude dans diverses tâches de similarité et améliore la généralisation et la robustesse distributionnelle dans diverses tâches d'apprentissage automatique. En conclusion, nous démontrons que l'ajout de connaissances humaines aux réseaux de neurones produit des représentations optimales qui améliorent à la fois le jugement cognitif humain et l'application pratique, conduisant à des systèmes d'intelligence artificielle plus robustes, interprétables et alignés sur l'humain.

Takeaways, Limitations_

Takeaways:
Une nouvelle méthode d’intégration des structures de connaissances conceptuelles hiérarchiques humaines dans des modèles est présentée.
Les modèles alignés sur l’humain reflètent plus précisément le comportement humain et l’incertitude dans une variété de tâches.
Améliorer la généralisation et la robustesse distributionnelle des modèles alignés sur l’humain.
Présente le potentiel de développement de systèmes d’IA plus robustes, interprétables et alignés sur l’humain.
Limitations:
La généralisabilité et la représentativité des données de jugement humain utilisées pour former les modèles d’enseignants doivent être examinées.
Les performances de généralisation de la méthode proposée doivent être évaluées sur d’autres tâches visuelles et d’autres types de données.
Des recherches supplémentaires sont nécessaires sur les limites et les moyens d’améliorer la capacité à saisir pleinement la structure hiérarchique des connaissances humaines.
👍