본 논문은 시각-언어 대조 학습에서 의미 표현을 풍부하게 하기 위한 새로운 방법인 Context-Adaptive Multi-Prompt Embedding을 제안합니다. 기존 CLIP 스타일 모델이 단일 텍스트 임베딩에 의존하는 것과 달리, 본 연구는 입력 텍스트의 다양한 의미적 측면을 포착하는 고유한 적응형 토큰을 각각 포함하는 여러 개의 구조화된 프롬프트를 도입합니다. CLIP 프레임워크 내에서 사전 훈련된 LLM을 텍스트 인코더로 활용하여 모든 프롬프트를 단일 전달 과정에서 공동으로 처리합니다. 결과적으로 생성된 프롬프트 임베딩은 통합된 텍스트 표현으로 결합되어 시각적 특징과의 의미적으로 더 풍부한 정렬을 가능하게 합니다. 의미적 다양성과 표현 품질을 더욱 향상시키기 위해 다양성 규제 손실과 부정 인식 손실을 통합하여 프롬프트 간의 전문화를 장려하고 대조적 차별을 개선합니다. 본 방법은 이미지-텍스트 및 비디오-텍스트 검색 벤치마크에서 일관된 성능 향상을 달성합니다.