Sign In

XLSTM-HVED: Cross-Modal Brain Tumor Segmentation and MRI Reconstruction Method Using Vision XLSTM and Heteromodal Variational Encoder-Decoder

Created by
  • Haebom
Category
Empty

저자

Shenghao Zhu, Yifei Chen, Shuo Jiang, Weihong Chen, Chang Liu, Yuanhan Wang, Xu Chen, Yifan Ke, Feiwei Qin, Changmiao Wang, Zhu Zhu

개요

신경교종은 예측 불가능한 생물학적 행동으로 인해 치료와 모니터링에 상당한 어려움을 제시하는 가장 공격적인 암 중 하나입니다. 자기 공명 영상(MRI)은 현재 신경교종을 진단하고 모니터링하는 데 선호되는 방법이지만, 특정 영상 기법의 부족으로 인해 영상 처리 과정에서 종양 분할의 정확성이 종종 저하됩니다. 본 논문에서는 이 문제를 해결하기 위해 Vision XLSTM 모듈을 갖춘 이종 모드 인코더-디코더 프레임워크를 통합하여 누락된 MRI 모드를 재구성하는 XLSTM-HVED 모델을 제시합니다. 공간 및 시간적 특징을 심층적으로 융합하여 종양 분할 성능을 향상시키는 것이 특징입니다. 핵심 혁신은 모달 특징의 통합을 개선하는 Self-Attention Variational Encoder (SAVE) 모듈과 Squeeze-Fusion-Excitation Cross Awareness (SFECA) 모듈을 통해 분할 및 재구성 작업 간의 특징 상호 작용을 최적화하는 것입니다. BraTS 2024 데이터셋을 사용한 실험 결과, 본 모델은 모드가 누락된 경우 기존의 고급 방법보다 성능이 크게 향상됨을 보여줍니다. 소스 코드는 https://github.com/Quanato607/XLSTM-HVED 에서 확인할 수 있습니다.

시사점, 한계점

시사점:
누락된 MRI 모드를 효과적으로 재구성하여 신경교종 종양 분할의 정확도를 향상시키는 새로운 모델 XLSTM-HVED 제시.
SAVE 모듈과 SFECA 모듈을 통해 모달 특징 통합 및 작업 간 특징 상호 작용 최적화.
BraTS 2024 데이터셋에서 기존 최첨단 방법보다 우수한 성능을 입증.
공개된 소스 코드를 통해 재현성 및 확장성 확보.
한계점:
BraTS 2024 데이터셋에 대한 성능 검증만 수행, 다른 데이터셋에 대한 일반화 성능은 추가 연구 필요.
모델의 복잡성 및 계산 비용에 대한 평가 부족.
실제 임상 환경에서의 적용 가능성 및 효율성에 대한 추가 연구 필요.
👍