Cet article présente une étude approfondie de RevisitVD, un modèle de langage pré-entraîné (PLM) pour la détection de vulnérabilités (VD). À l'aide d'un ensemble de données nouvellement construit, nous comparons les approches de réglage fin et d'ingénierie rapide de 17 PLM (dont des PLM à petite échelle, spécifiques au code, et des PLM à grande échelle). Nous évaluons leur efficacité dans différents contextes d'apprentissage et de test, leur capacité de généralisation et leur robustesse à la normalisation, à l'abstraction et aux transformations sémantiques du code. Nous constatons qu'un PLM intégrant une tâche pré-entraînée conçue pour capturer les schémas syntaxiques et sémantiques du code surpasse les PLM à usage général ou les PLM pré-entraînés ou affinés uniquement sur de grands corpus de code. Cependant, nous constatons également qu'il présente des difficultés dans des scénarios réels, tels que la détection de vulnérabilités avec des dépendances complexes, la gestion des modifications dues à la normalisation et à l'abstraction du code, et l'identification des transformations de code sémantiquement vulnérables. Nous soulignons également que la fenêtre contextuelle limitée du PLM peut entraîner d'importantes erreurs d'étiquetage dues à la troncature.