AI 모델이 생성하는 이미지가 현실적으로 변하면서 잠재적 오용에 대한 우려가 커짐에 따라, 신뢰할 수 있는 탐지에 대한 필요성이 대두되고 있다. 기존의 지도 학습 기반 탐지 방법은 대규모 큐레이션 데이터 세트에 의존하며, 새로운 이미지 생성기에 대한 일반화에 실패하는 경우가 많다. 이에 대한 대안으로, 본 논문에서는 사전 훈련된 Vision-Language Models(VLMs)을 사용하여 AI 생성 이미지를 제로샷 탐지하는 방법을 탐구한다. 16개의 최첨단 이미지 생성기로 생성된 인간의 얼굴, 객체, 동물의 합성 이미지를 포함하는 세 가지 다양한 벤치마크에서 VLM의 성능을 평가한다. 상용 VLMs는 이러한 데이터 세트에서 성능이 저조하지만, 간단한 응답 사전 채우기(Prefill-Guided Thinking, PGT)를 통해 VLM의 추론을 효과적으로 안내할 수 있음을 발견했다. 특히, VLM 응답을 "Let's examine the style and the synthesis artifacts"라는 작업 정렬 구문으로 사전 채우면 3가지 널리 사용되는 오픈 소스 VLM의 Macro F1 점수를 최대 24%까지 향상시킬 수 있다.