Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Representation Learning of Lab Values via Masked AutoEncoders

Created by
  • Haebom

作者

David Restrepo, Chenwei Wu, Yueran Jia, Jaden K. Sun, Jack Gallifant, Catherine G. Bielick, Yugang Jia, Leo A. Celi

概要

本論文は、電子健康記録(EHR)から欠落している実験室の数値を正確に置き換えるための新しいトランスベースのマスク自動エンコーダフレームワークであるLab-MAEを提案しています。そこで、Lab-MAEは自己指導学習を活用し、連続した順次実験室値を置き換えます。 GAIN、EM、MICEなど最先端の基準モデルよりもはるかに優れており、人口統計的グループ全体にわたって公平な性能を達成し、臨床予測の公平性を向上させ、さらに実験室値の役割を調査し、Lab-MAEの強力さを示し、XGBoostモデルとの炭素足跡を比較測定します。

Takeaways、Limitations

Takeaways:
EHRデータの欠落している実験室の数値を正確かつ公正に置き換える新しい方法であるLab-MAEの提示。
従来の方法より優れた性能(RMSE、R2、WDの向上)、およびさまざまな人口統計グループでの公正なパフォーマンスの達成。
時間依存性を明示的に考慮する構造化符号化方式の効果を実証する。
その後の実験室値の不在にも強力な性能を維持。
モデルの環境的影響(炭素フットプリント)の考慮。
Limitations:
MIMIC-IVデータセットの結果のみが提示され、一般化の可能性に関するさらなる研究が必要です。
他の種類の欠落データ(カテゴリ変数など)の適用性とパフォーマンス検証が必要です。
Lab-MAEのカーボンフットプリントがXGBoostよりどれくらい小さいかは特に示されていません。具体的な数値提示が必要。
👍