Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Exploration générative de données avec diffusion guidée par longue traîne

Created by
  • Haebom

Auteur

David S. Hayden, Mao Ye, Timur Garipov, Gregory P. Meyer, Carl Vondrick, Zhao Chen, Yuning Chai, Eric Wolff, Siddhartha S. Srinivasa

Contour

Dans cet article, nous abordons la difficulté d'anticiper les différents problèmes rencontrés par un modèle prédictif après son déploiement. Au lieu de l'approche réactive et récursive traditionnelle (déploiement de modèle, exploration de données, réentraînement), nous développons un processus de découverte ex ante à longue traîne. En imaginant des données supplémentaires pendant l'entraînement, nous développons un signal à longue traîne général basé sur un modèle, qui contient l'incertitude épistémique d'une formulation différentiable à passage unique, capable d'identifier les entrées rares ou difficiles sans affecter les paramètres du modèle ni les performances prédictives. Nous exploitons ces signaux pour générer des données d'entraînement supplémentaires à partir d'un modèle de diffusion latente grâce à un processus appelé guidage à longue traîne (LTG). Il est important de noter que nous effectuons le LTG sans réentraîner le modèle de diffusion ou le modèle prédictif, et sans exposer le modèle prédictif à des états de diffusion intermédiaires. Les données générées par le LTG présentent des changements sémantiquement significatifs, conduisent à des améliorations significatives de la généralisation sur plusieurs benchmarks de classification d'images et peuvent être analysées par le modèle vision-langage (VLM) pour découvrir, expliquer textuellement et combler de manière proactive les lacunes conceptuelles des modèles prédictifs déployés.

Takeaways, Limitations

Takeaways:
Un nouveau cadre est présenté pour prédire et résoudre les problèmes potentiels qui peuvent survenir après le déploiement du modèle.
Nous présentons une méthode pour améliorer les performances de généralisation d’un modèle sans le processus traditionnel de recyclage répétitif.
Nous présentons une méthode permettant de générer efficacement des données de formation supplémentaires significatives en exploitant des modèles de diffusion latente.
Automatisez le processus de découverte et de résolution des lacunes conceptuelles dans vos modèles à l’aide de VLM.
Limitations:
L’efficacité de la méthode proposée peut être limitée à des critères de classification d’images spécifiques.
Des recherches supplémentaires sont nécessaires sur la qualité et la diversité des données générées au cours du processus LTG.
La précision de la détection et de la résolution des écarts conceptuels du modèle peut être affectée par les performances du VLM.
Il est nécessaire de vérifier les performances de généralisation pour différents types de modèles prédictifs et d’ensembles de données.
👍