본 논문은 Segment Anything Model (SAM)의 정확도 향상을 목표로 하는 DIS-SAM 프레임워크를 제안합니다. SAM은 우수한 성능을 보이지만 객체 경계를 정확하게 구분하는 데 한계가 있습니다. 이를 해결하기 위해, DIS-SAM은 기존의 prompt-free dichotomous image segmentation (DIS) task에 사용된 고급 네트워크를 수정하여 SAM과 통합하는 2단계 접근 방식을 사용합니다. 또한, 기존 마스크 어노테이션을 수정하는 ground truth enrichment 전략을 통해 학습 효율을 높였습니다. 실험 결과, DIS-SAM은 SAM, HQ-SAM, Pi-SAM에 비해 최대 8.5%, 6.9%, 3.7%의 F-measure 향상을 보였습니다. 소스 코드는 github에서 공개됩니다.