Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

L'IA explicable pour les urgences en santé mentale revient : intégration des LLM à la modélisation prédictive

Created by
  • Haebom

Auteur

Abdulaziz Ahmed, Mohammad Saleem, Mohammed Alzeen, Badari Birur, Rachel E Fargason, Bradley G Burk, Ahmed Alhassan, Mohammed Ali Al-Garadi

Contour

Cette étude vise à améliorer la précision prédictive et l'interprétabilité clinique d'un modèle de prédiction du risque de réadmission aux urgences pour des troubles mentaux en intégrant des modèles de langage à grande échelle (MLH) à l'apprentissage automatique. Nous avons analysé 42 464 dossiers de visites aux urgences de 27 904 patients uniques en santé mentale entre janvier 2018 et décembre 2022 afin d'évaluer la précision prédictive de la réadmission aux urgences dans les 30 jours et l'interprétabilité du modèle à l'aide du cadre amélioré par le LLM. Grâce au LLaMA 3 (8B), nous avons obtenu une précision (0,882) et un score F1 (0,86) supérieurs à ceux du modèle de base, ainsi qu'une précision (0,95) et un score F1 (0,96) élevés pour la classification des troubles mentaux. En particulier, le cadre d'interprétabilité basé sur le LLM a atteint une précision de 99 % dans la conversion des prédictions du modèle en explications cliniquement pertinentes. La fonction d'extraction LLM a amélioré l'ASC de XGBoost de 0,74 à 0,76 et l'ASC-PR de 0,58 à 0,61. En conclusion, l'intégration des modèles LLM et d'apprentissage automatique a légèrement amélioré la précision de la prédiction, tout en améliorant significativement l'interprétabilité grâce à des explications automatisées et cliniquement pertinentes.

Takeaways, Limitations

Takeaways:
L’intégration du LLM peut améliorer la précision des modèles prédictifs du risque de réexamen des services d’urgence en santé mentale.
Un cadre d’interprétabilité basé sur le LLM permet de traduire les prédictions du modèle en explications cliniquement utiles.
Fournit un cadre pour transformer l’analyse prédictive en informations cliniques exploitables.
Confirmer l’utilité du LLM pour prédire des déterminants sociaux spécifiques de la santé (DSS) (alcool, tabac, toxicomanie).
Limitations:
L’amélioration de la précision n’est pas significative (légère amélioration).
Les sujets de l'étude étaient limités aux données d'un seul établissement médical d'une région spécifique (le Sud profond). La généralisabilité doit être évaluée.
Faibles performances de prédiction pour certains éléments du SDoH (exercice, environnement domestique).
Des recherches supplémentaires sont nécessaires pour améliorer l’interprétabilité du LLM.
👍