의료 영상 분할 분야에서 Segment Anything Model (SAM)의 잠재력을 인정하지만, 소량의 레이블 데이터를 사용할 때 성능이 제한적이라는 점과, 의료 데이터 내 풍부하지만 종종 간과되는 계층적 정보에 주목하여 SAMora라는 혁신적인 프레임워크를 제안합니다. SAMora는 이미지, 패치, 픽셀 레벨에서 상호 보완적인 자기 지도 학습 목표를 적용하여 계층적 의료 지식을 캡처합니다. LoRA 내 계층적 지식의 상호 보완성을 최대한 활용하기 위해, 다중 스케일 특징을 통합하고 고유한 특성을 유지하는 계층적 융합 모듈 HL-Attn을 도입했습니다. SAMora는 SAM2, SAMed, H-SAM과 같은 다양한 SAM 변형과 호환됩니다. Synapse, LA, PROMISE12 데이터셋에 대한 실험 결과는 SAMora가 기존 SAM 변형보다 우수하며, 소량 및 완전 지도 학습 설정 모두에서 최첨단 성능을 달성하고 미세 조정 에포크를 90% 줄였음을 보여줍니다.