본 논문은 오픈-보캐블러리 모바일 매니퓰레이션(OVMM)에서 로봇의 기저 위치 선정 문제를 해결하기 위해, 시각-언어 모델(VLM)을 활용한 어포던스 기반의 'Affordance-Guided Coarse-to-Fine Exploration' 프레임워크를 제안한다. 이 프레임워크는 VLM에서 얻은 의미론적 이해와 기하학적 타당성을 통합하여, 태스크 관련 어포던스를 고려한 로봇의 기저 위치를 탐색한다. 'Affordance RGB'와 'Obstacle Map+'과 같은 크로스 모달 표현을 사용하여 의미론과 공간적 맥락을 연결하며, 거친 수준의 VLM 기반 시맨틱 정보를 활용하여 탐색을 유도하고 기하학적 제약 조건으로 위치를 개선함으로써 국소 최적해 수렴 위험을 줄인다. 5가지 OVMM 태스크에 대한 실험 결과, 85%의 성공률을 기록하여 기존 방법론을 능가하는 성능을 보였다.