Este artículo presenta un estudio exhaustivo de RevisitVD, un modelo de lenguaje preentrenado (PLM) para la detección de vulnerabilidades (VD). Utilizando un conjunto de datos de nueva construcción, comparamos enfoques de ajuste fino e ingeniería rápida utilizando 17 PLM (incluyendo PLM de pequeña escala, específicos para código, y PLM de gran escala). Evaluamos su eficacia en diversos entornos de entrenamiento y prueba, su capacidad de generalización y su robustez a la normalización, abstracción y transformaciones semánticas de código. Observamos que un PLM que incorpora una tarea preentrenada diseñada para capturar patrones sintácticos y semánticos de código supera a los PLM de propósito general o a los PLM preentrenados o ajustados solo en grandes corpus de código. Sin embargo, también observamos dificultades en escenarios reales, como la detección de vulnerabilidades con dependencias complejas, la gestión de cambios debido a la normalización y abstracción de código, y la identificación de transformaciones de código semánticamente vulnerables. También destacamos que la limitada ventana de contexto del PLM puede provocar errores de etiquetado significativos debido al truncamiento.