Sign In

Context-Gated Cross-Modal Perception with Visual Mamba for PET-CT Lung Tumor Segmentation

Created by
  • Haebom
Category
Empty

저자

Elena Mulero Ayllon, Linlin Shen, Pierangelo Veltri, Fabrizia Gelardi, Arturo Chiti, Paolo Soda, Matteo Tortora

개요

vMambaX는 PET 및 CT 스캔 이미지를 Context-Gated Cross-Modal Perception Module (CGM)을 통해 통합하는 경량 다중 모달 프레임워크입니다. Visual Mamba 아키텍처를 기반으로 구축되었으며, 모드 간 특징 상호 작용을 적응적으로 향상시키고, 노이즈를 억제하면서 유용한 영역을 강조합니다. PCLT20K 데이터 세트에서 평가한 결과, vMambaX는 기존 모델보다 우수한 성능을 보이면서 낮은 계산 복잡성을 유지했습니다. 이 모델은 다중 모달 종양 분할을 위한 적응형 교차 모달 게이팅의 효과를 강조하고, 폐암 분석을 위한 효율적이고 확장 가능한 프레임워크로서의 잠재력을 보여줍니다.

시사점, 한계점

시사점:
PET 및 CT 이미지를 효과적으로 결합하여 폐 종양 분할 정확도를 향상시킴.
경량 프레임워크로, 낮은 계산 복잡성을 유지하면서 우수한 성능을 달성함.
적응형 교차 모달 게이팅 메커니즘을 통해 모드 간의 특징 상호 작용을 효과적으로 개선함.
Github을 통해 코드 공개로 접근성을 높임.
한계점:
구체적인 성능 지표 (예: Dice score, IoU)는 명시되지 않음.
PCLT20K 데이터셋 외 다른 데이터셋에서의 일반화 성능에 대한 평가는 부족함.
CGM의 상세 작동 방식에 대한 설명이 부족함.
👍