본 논문은 다양한 임상 데이터 모달리티를 통합하여 뇌졸중 위험 예측을 향상시키는 자가 지도 학습 기반 다중 모달 프레임워크를 제시합니다. 3D 뇌 영상, 임상 데이터, 영상 유래 특징을 결합하여 뇌졸중 발병 전 위험 예측을 개선합니다. 비표지 데이터셋(UK Biobank)을 활용하여 영상 및 표 형태 데이터 모달리티 간 상호 보완적이고 시너지 효과를 내는 정보를 포착합니다. 대조 학습 프레임워크를 기반으로, 대조 언어-영상 사전 학습과 영상-표 데이터 매칭 모듈을 결합하여 다중 모달 데이터 표현을 공유잠재공간에 정렬합니다. 다양한 모델 설정(고정 및 학습 가능) 하에서 기존 최고 성능의 단일 모달 및 다중 모달 방법과 비교 평가한 결과, 자가 지도 학습 표 데이터(영상) 방법보다 ROC-AUC에서 2.6%(2.6%), 균형 정확도에서 3.3%(5.6%) 향상되었고, 최고 성능의 다중 모달 지도 학습 모델보다 균형 정확도가 7.6% 향상되었습니다. 해석 가능한 도구를 통해 표 데이터와 영상 데이터의 통합이 개선되어 더 풍부하고 정렬된 임베딩을 제공함을 보여주었으며, Gradient-weighted Class Activation Mapping 히트맵을 통해 뇌 노화, 뇌졸중 위험 및 임상 결과와 관련된 뇌 영역이 활성화됨을 확인했습니다.