Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Extraction de connaissances probabilistes à partir de grands modèles de langage pour la paramétrisation des réseaux bayésiens

Created by
  • Haebom

Auteur

Aliakbar Nafar, Kristen Brent Venable, Zijun Cui, Parisa Kordjamshidi

Contour

Cet article évalue la faisabilité de la construction de réseaux bayésiens (RB) à l'aide de modèles de langage à grande échelle (MLL). Si les MLL ont démontré leur potentiel en tant que bases de connaissances factuelles, leur capacité à générer des connaissances probabilistes sur des événements réels reste sous-explorée. Cette étude explore comment exploiter les connaissances probabilistes inhérentes aux MLL pour dériver des estimations de probabilité d'énoncés sur les événements et leurs relations au sein des RB. Les MLL permettent la paramétrisation des RB, permettant ainsi la modélisation probabiliste dans des domaines spécifiques. Des expériences menées sur 80 RB accessibles au public, allant de la santé à la finance, démontrent que l'interrogation des MLL pour les probabilités conditionnelles d'événements produit des résultats significatifs par rapport aux données de référence, notamment des distributions aléatoires et uniformes et des approches basées sur la probabilité de la prochaine génération de jetons. Plus précisément, nous explorons comment les distributions extraites des MLL peuvent être utilisées comme a priori experts pour améliorer les distributions dérivées des données, en particulier lorsque celles-ci sont rares. Globalement, cette étude présente une stratégie prometteuse pour la construction automatique de réseaux bayésiens en combinant les connaissances probabilistes extraites des LLM avec des données réelles. De plus, elle établit la première base de référence complète pour l'évaluation des performances des LLM en matière d'extraction de connaissances probabilistes.

Takeaways, Limitations_

Takeaways:
Nous présentons une nouvelle méthode permettant d’estimer efficacement les paramètres des réseaux bayésiens en utilisant LLM.
Nous montrons que LLM peut améliorer la précision des réseaux bayésiens en agissant comme une information préalable experte dans des situations où les données sont rares.
Nous présentons une base de référence complète pour évaluer les performances d’extraction de connaissances probabilistes du LLM.
Il fournit une méthode efficace pour construire automatiquement des réseaux bayésiens, augmentant ainsi leur applicabilité dans divers domaines.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer la précision des estimations de probabilité générées par LLM.
Les performances du LLM peuvent être biaisées en faveur de domaines ou d’ensembles de données spécifiques.
Des analyses plus approfondies sont nécessaires sur le coût de calcul et l’efficacité de la construction de réseaux bayésiens à l’aide de LLM.
La généralisabilité des 80 ensembles de données BN utilisés doit être examinée.
👍