본 논문은 Segment Anything Model (SAM)의 객체 분할 성능 향상을 목표로, 기존 SAM 모델의 형태 중심 편향을 해결하기 위해 질감 정보를 고려한 새로운 모델 TextureSAM을 제안합니다. SAM은 대규모 의미론적 분할 데이터셋으로 학습되어 형태 정보에 치우친 경향이 있는데, 이는 질감 변화가 객체 경계를 결정하는 의료 영상, 재료 분류, 원격 감지 등의 분야에서 한계를 보입니다. TextureSAM은 질감 증강 기법을 활용한 새로운 미세 조정 방법을 통해 ADE20K 데이터셋을 질감 중심으로 변형하고, 이를 통해 질감 기반 영역을 우선적으로 고려하도록 학습됩니다. 실험 결과, TextureSAM은 자연 및 합성 질감 기반 분할 데이터셋에서 SAM-2보다 성능이 향상됨을 보여줍니다 (자연 이미지 +0.2 mIoU, 합성 이미지 +0.18 mIoU). 코드와 질감 증강 데이터셋은 공개될 예정입니다.