본 논문은 Referring Expression Comprehension (REC) 문제를 해결하기 위해, 특정 REC 훈련 없이도 경쟁력 있는 또는 우수한 성능을 달성할 수 있는 제로샷 워크플로우를 제시한다. 제안하는 방법은 REC를 box-wise visual-language verification으로 재구성하여, COCO-clean generic detector (YOLO-World)에서 얻은 proposals를 활용, 일반적인 VLM이 각 영역에 대해 True/False 질의에 독립적으로 응답하도록 한다. 이 간단한 절차는 상호 간섭을 줄이고, Abstention 및 multiple match를 지원하며, fine-tuning을 필요로 하지 않는다. RefCOCO, RefCOCO+, RefCOCOg에서 제로샷 GroundingDINO baseline을 능가할 뿐 아니라, REC에 대해 훈련된 GroundingDINO과 GroundingDINO+CRG의 보고된 결과도 초과한다. 동일한 proposals를 사용한 제어 연구는 verification이 selection-based prompting보다 우수함을 확인하며, open VLM에서도 동일한 결과가 나타난다. 전반적으로, 본 논문은 task-specific pretraining이 아닌 워크플로우 디자인이 강력한 제로샷 REC 성능을 이끌어냄을 보여준다.