Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Apprentissage de la représentation des valeurs de laboratoire via des auto-encodeurs masqués

Created by
  • Haebom

Auteur

David Restrepo, Chenwei Wu, Yueran Jia, Jaden K. Sun, Jack Gallifant, Catherine G. Bielick, Yugang Jia, Leo A. Celi

Contour

Français Dans cet article, nous proposons un nouveau cadre d'auto-encodeur de masque basé sur un transformateur, Lab-MAE, pour l'imputation précise des valeurs de laboratoire manquantes dans les dossiers de santé électroniques (DSE). Étant donné que les méthodes existantes (XGBoost, softimpute, GAIN, EM, MICE) peinent à modéliser les dépendances temporelles et contextuelles complexes dans les données de DSE, en particulier dans les populations sous-représentées, Lab-MAE impute des valeurs de laboratoire séquentielles à l'aide d'un apprentissage auto-supervisé. Lab-MAE capture explicitement les dépendances temporelles en introduisant un schéma d'encodage structuré qui modélise conjointement les valeurs des tests de laboratoire et leurs horodatages correspondants. Les résultats expérimentaux sur l'ensemble de données MIMIC-IV démontrent que Lab-MAE surpasse significativement les modèles de base de pointe (XGBoost, softimpute, GAIN, EM, MICE) en termes de multiples métriques, y compris RMSE, R2 et WD, et atteint des performances équitables dans tous les groupes démographiques, améliorant ainsi l'équité de la prédiction clinique. Nous démontrons également la robustesse du Lab-MAE en étudiant le rôle des valeurs de laboratoire ultérieures et en comparant son empreinte carbone avec celle du modèle XGBoost.

Takeaways, Limitations

Takeaways:
Nous présentons Lab-MAE, une nouvelle méthode permettant de remplacer avec précision et équité les valeurs de laboratoire manquantes dans les données du DSE.
Permet d'obtenir de meilleures performances (RMSE, R2, WD améliorés) que les méthodes existantes et des performances équitables dans divers groupes démographiques.
Démontrer l’efficacité d’un schéma d’encodage structuré qui prend explicitement en compte les dépendances temporelles.
Maintient de bonnes performances malgré l'absence de valeurs de laboratoire de suivi.
Tenez compte de l’impact environnemental (empreinte carbone) de votre modèle.
Limitations:
Seuls les résultats de l'ensemble de données MIMIC-IV sont présentés, des recherches supplémentaires sont donc nécessaires sur la généralisabilité.
L’applicabilité et la vérification des performances pour d’autres types de données manquantes (par exemple, les variables catégorielles) sont nécessaires.
Il n'est pas précisé dans quelle mesure l'empreinte carbone de Lab-MAE est inférieure à celle de XGBoost. Des chiffres précis sont nécessaires.
👍