Towards a Universal 3D Medical Multi-modality Generalization via Learning Personalized Invariant Representation
Created by
Haebom
저자
Zhaorui Tan, Xi Yang, Tan Pan, Tianyi Liu, Chen Jiang, Xin Guo, Qiufeng Wang, Anh Nguyen, Yuan Qi, Kaizhu Huang, Yuan Cheng
개요
본 논문은 다양한 의료 영상 모달리티 간의 차이와 개인 간의 차이(장기 크기, 대사율 등)가 다중 모달 의료 과제에서 일반화에 어려움을 야기한다는 점을 지적합니다. 기존의 다중 모달 일반화 접근 방식은 개별 차이를 무시하고 해부학적 특징에만 집중하는 한계를 가지는데, 본 논문에서는 개인화가 다중 모달 일반화에 중요함을 밝히고, 개인 수준의 제약과 학습 가능한 생물학적 사전 지식을 활용하여 다양한 모달리티에서 개인별 불변 표현 Xh를 근사하는 방법을 제안합니다. 실험 결과를 통해 제안된 개인화된 Xh 표현이 다양한 다중 모달 의료 과제에서 일반화 및 전이 성능을 크게 향상시킨다는 것을 보여줍니다.
시사점, 한계점
•
시사점:
◦
개인화된 표현 학습을 통해 다중 모달 의료 영상 분석의 일반화 성능을 향상시킬 수 있음을 보여줌.