자율 주행 및 로봇 분야에서 OOD(Out-of-Distribution) 세분화를 위한 새로운 접근 방식을 제시합니다. 본 논문은 시각-언어 공간을 활용하여 복잡한 자율 주행 환경에서 OOD 객체를 효과적으로 감지하는 Text-Driven OOD Segmentation 모델을 제안합니다. 이 모델은 비전-언어 모델의 인코더와 변환기 디코더를 결합하고, 거리 기반 OOD 프롬프트와 OOD 의미론적 증강을 사용하여 시각적 정보와 텍스트 정보를 정렬합니다. 공개된 OOD 세분화 데이터셋에서 실험을 수행하여 픽셀 수준 및 객체 수준 평가 모두에서 SOTA(state-of-the-art) 성능을 달성하여 자율 주행 시스템의 안전성과 신뢰성을 향상시킬 가능성을 보여줍니다.