MR-CLIP: Efficient Metadata-Guided Learning of MRI Contrast Representations
Created by
Haebom
作者
Mehmet Yigit Avci, Pedro Borges, Paul Wright, Mehmet Yigitsoy, Sebastien Ourselin, Jorge Cardoso
概要
本論文は、医療画像解析の重要な要素である磁気共鳴画像(MRI)のコントラスト情報を効果的に活用するための新しい方法論であるMR-CLIPを提案します。従来はDICOMメタデータに含まれている取得パラメータ(echo time, repetition timeなど)を用いてコントラストを推定していましたが、メタデータの不在、不完全性、そして単純なT1/T2重み分類の限界により正確なコントラスト情報の活用に困難がありました。 MR-CLIPは、さまざまなスキャナとプロトコルで取得された臨床データセットを使用して、手動ラベルなしでMRI画像とDICOMメタデータを関連付けるマルチモードコントラスト学習フレームワークです。これにより、解剖学的構造に依存しない、コントラスト情報を考慮した画像表現を学習し、さまざまなアプリケーション(例えば、クロスモードリトリーバル、コントラスト分類)で効果を示すことが実験的に証明されます。ソースコードと学習されたモデルの重みは公的に提供されます。