Français Dans cet article, nous proposons un nouveau cadre d'auto-encodeur de masque basé sur un transformateur, Lab-MAE, pour l'imputation précise des valeurs de laboratoire manquantes dans les dossiers de santé électroniques (DSE). Étant donné que les méthodes existantes (XGBoost, softimpute, GAIN, EM, MICE) peinent à modéliser les dépendances temporelles et contextuelles complexes dans les données de DSE, en particulier dans les populations sous-représentées, Lab-MAE impute des valeurs de laboratoire séquentielles à l'aide d'un apprentissage auto-supervisé. Lab-MAE capture explicitement les dépendances temporelles en introduisant un schéma d'encodage structuré qui modélise conjointement les valeurs des tests de laboratoire et leurs horodatages correspondants. Les résultats expérimentaux sur l'ensemble de données MIMIC-IV démontrent que Lab-MAE surpasse significativement les modèles de base de pointe (XGBoost, softimpute, GAIN, EM, MICE) en termes de multiples métriques, y compris RMSE, R2 et WD, et atteint des performances équitables dans tous les groupes démographiques, améliorant ainsi l'équité de la prédiction clinique. Nous démontrons également la robustesse du Lab-MAE en étudiant le rôle des valeurs de laboratoire ultérieures et en comparant son empreinte carbone avec celle du modèle XGBoost.