본 논문은 Vision Foundation Models (VFMs)를 기반으로 한 semi-supervised learning (SSL)의 효과성을 연구합니다. 기존의 SSL 방법론들이 VFMs와 어떻게 상호작용하는지에 대한 명확한 이해가 부족하다는 점을 지적하며, VFMs의 성능이 저조한 새로운 SSL 벤치마크 데이터셋을 개발하고 다양한 SSL 방법론을 체계적으로 평가합니다. 흥미롭게도, labeled data만을 사용한 parameter-efficient fine-tuning (PEFT)이 unlabeled data를 활용하는 SSL과 유사한 성능을 보이는 것을 발견합니다. 이를 바탕으로, supervised PEFT 모델을 이용하여 unlabeled data에 pseudo-label을 부여하는 self-training 방식을 개선하여 제안합니다. 특히, 여러 PEFT 방법과 VFM 백본을 활용하여 ensemble을 구성함으로써 noisy pseudo-label 문제를 해결하고 더욱 robust한 pseudo-label을 생성합니다. 실험 결과는 제안된 방법의 효과성을 입증하며, VFMs를 활용한 SSL에 대한 실용적인 통찰력을 제공합니다.