Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Vers l'inférence neuronale universelle

작성자
  • Haebom

Auteur

Shreyas Bhat Brahmavar, Yang Li, Junier Oliva

Contour

ASPIRE est un modèle d'inférence neuronale polyvalent pour l'inférence sémantique et la prédiction sur des données structurées hétérogènes. Pour relever les défis des données réelles, souvent présentées sous des formes diverses et disjointes, avec des schémas variés, une sémantique incohérente et un ordre de caractéristiques indéterminé, il combine un transformateur basé sur des ensembles invariant par permutation avec un module sémantique qui apprend les dépendances de caractéristiques entre les jeux de données en intégrant des descriptions en langage naturel, des métadonnées de jeux de données et des exemples contextuels. Il accepte un ensemble arbitraire de paires caractéristique-valeur et d'exemples, aligne la signification entre les tables disjointes et effectue des prédictions pour une cible donnée. Après apprentissage, il se généralise à de nouvelles tâches d'inférence sans ajustement supplémentaire. Il fournit non seulement des résultats robustes sur divers benchmarks, mais prend également en charge l'acquisition active de caractéristiques à moindre coût dans des environnements ouverts, en sélectionnant les caractéristiques utiles sous des contraintes budgétaires de temps de test sur des jeux de données arbitraires et inédits.

Takeaways, Limitations

Takeaways:
Nous présentons un modèle d’inférence neuronale à usage général pour des données structurées hétérogènes.
L'alignement sémantique et l'apprentissage des dépendances de fonctionnalités sur les ensembles de données sont possibles grâce à l'invariance de permutation et aux modules basés sur la sémantique.
Généralisable à de nouvelles tâches d'inférence sans réglage supplémentaire.
Prise en charge de l'acquisition active de fonctionnalités à moindre coût dans les environnements du monde ouvert.
Excellentes performances sur une variété d’indices de référence.
Limitations:
Une validation supplémentaire est nécessaire pour garantir qu’elle gère pleinement la diversité et la complexité des données du monde réel.
Dégradation potentielle des performances pour certains types de données ou de tâches d'inférence.
Dépendance à la taille et à la qualité des données de formation.
Des recherches supplémentaires sont nécessaires sur l’interprétabilité et l’explicabilité.
👍