본 논문은 기존의 Composed Image Retrieval (CIR) 데이터셋이 주로 상세하지 않은 수정 텍스트(CoarseMT)를 사용하여 정밀한 검색 의도를 제대로 포착하지 못하는 문제를 해결하기 위해, 정밀한 수정 텍스트를 사용하는 새로운 CIR 데이터셋(Fine-FashionIQ, Fine-CIRR)과 이를 효과적으로 처리하는 CIR 프레임워크(FineCIR)를 제시합니다. FineCIR은 수정 텍스트의 의미를 정확하게 파악하고 모호한 시각적 개체와 연결하여 검색 정확도를 향상시키며, 실험 결과 기존 방법들을 능가하는 성능을 보입니다. 새로운 데이터셋과 코드는 공개적으로 제공됩니다.