신경교종은 예측 불가능한 생물학적 행동으로 인해 치료와 모니터링에 상당한 어려움을 제시하는 가장 공격적인 암 중 하나입니다. 자기 공명 영상(MRI)은 현재 신경교종을 진단하고 모니터링하는 데 선호되는 방법이지만, 특정 영상 기법의 부족으로 인해 영상 처리 과정에서 종양 분할의 정확성이 종종 저하됩니다. 본 논문에서는 이 문제를 해결하기 위해 Vision XLSTM 모듈을 갖춘 이종 모드 인코더-디코더 프레임워크를 통합하여 누락된 MRI 모드를 재구성하는 XLSTM-HVED 모델을 제시합니다. 공간 및 시간적 특징을 심층적으로 융합하여 종양 분할 성능을 향상시키는 것이 특징입니다. 핵심 혁신은 모달 특징의 통합을 개선하는 Self-Attention Variational Encoder (SAVE) 모듈과 Squeeze-Fusion-Excitation Cross Awareness (SFECA) 모듈을 통해 분할 및 재구성 작업 간의 특징 상호 작용을 최적화하는 것입니다. BraTS 2024 데이터셋을 사용한 실험 결과, 본 모델은 모드가 누락된 경우 기존의 고급 방법보다 성능이 크게 향상됨을 보여줍니다. 소스 코드는 https://github.com/Quanato607/XLSTM-HVED 에서 확인할 수 있습니다.