사전 훈련된 언어 모델(PLM)의 급속한 발전은 다양한 코드 관련 작업에 유망한 결과를 보여주었지만, 실제 취약점 탐지 능력은 여전히 중요한 과제입니다. 본 논문은 취약점 탐지(VD)를 위한 PLM에 대한 기존 연구의 일반적인 문제점을 재검토하고, 정확한 라벨링, 다양한 취약점 유형 및 다양한 프로젝트를 특징으로 하는 고품질 데이터 세트에 대한 18개의 PLM의 정확하고 광범위한 평가를 수행합니다. 구체적으로, 파인 튜닝 및 프롬프트 엔지니어링 하에서 PLM의 성능을 비교하고, 다양한 훈련 및 테스트 설정에서 효과와 일반화 가능성을 평가하며, 일련의 교란에 대한 견고성을 분석합니다.