Sign In

A Reverse Mamba Attention Network for Pathological Liver Segmentation

Created by
  • Haebom
Category
Empty

저자

Jun Zeng, Debesh Jha, Ertugrul Aktas, Elif Keles, Alpay Medetalibeyoglu, Matthew Antalek, Robert Lewandowski, Daniela Ladner, Amir A. Borhani, Gorkem Durak, Ulas Bagci

개요

RMA-Mamba는 역 맘바 어텐션 모듈(RMA)을 사용하여 비전 상태 공간 모델의 성능을 향상시키는 새로운 아키텍처입니다. 계층적 처리 파이프라인을 통해 장거리 의존성을 포착하면서 정밀한 지역적 특징 표현을 유지하는 것이 핵심 혁신입니다. Vision Mamba (VMamba)의 효율적인 시퀀스 모델링과 RMA의 표적 특징 개선을 통합하여 다양한 스케일에서 우수한 특징 학습을 달성합니다. 이러한 이중 메커니즘 접근 방식을 통해 복잡한 형태학적 패턴을 효율적으로 처리하면서 계산 효율성을 유지합니다. 병리학적 간 분할(CT 및 MRI 모두)이라는 어려운 영역에서 RMA-Mamba의 효과를 입증했으며, 새로운 간경변 간 데이터 세트(CirrMRI600+)에서 최첨단 성능(Dice 계수 92.08%, 평균 IoU 87.36%, 재현율 92.96%)을 달성했습니다. LiTS 데이터셋에서도 우수한 성능(Dice 계수 92.9%, mIoU 88.99%)을 보이며 일반화 성능을 입증했습니다. 코드는 공개적으로 제공됩니다 (https://github.com/JunZengz/RMAMamba).

시사점, 한계점

시사점:
역 맘바 어텐션 모듈(RMA)을 통한 장거리 의존성과 정밀한 지역적 특징 표현의 동시 달성.
Vision Mamba와의 통합을 통한 다양한 스케일에서의 효율적인 특징 학습.
간경변 및 간암 분할에서 최첨단 성능 달성.
공개된 코드를 통한 재현성 및 확장성 확보.
한계점:
논문에서 특정 한계점이 명시적으로 언급되지 않음.
특정 데이터셋에 대한 성능 평가 결과만 제시되어 일반화 성능에 대한 추가 연구 필요.
다른 의료 영상 분할 문제에 대한 적용 가능성에 대한 추가 연구 필요.
👍