Este artículo presenta los resultados de un estudio sobre ataques de repetición, una amenaza para la seguridad de los modelos de lenguaje a gran escala (LLM). Este estudio se centra en los ataques que explotan la función de prellenado de respuestas controlada por el usuario, en lugar de los ataques a nivel de mensaje, abordados principalmente en estudios previos. El prellenado permite a los atacantes manipular el inicio de la salida del modelo, cambiando el paradigma de ataque de los ataques basados en la persuasión a la manipulación directa del estado del modelo. Se realizó un análisis de seguridad de caja negra en 14 LLM para clasificar los ataques de repetición a nivel de prellenado y evaluar su eficacia. Los resultados experimentales muestran que los ataques con métodos adaptativos alcanzaron tasas de éxito superiores al 99 % en múltiples modelos, y el análisis de probabilidad a nivel de token confirmó que la manipulación del estado inicial provocó un cambio en la probabilidad del primer token, del rechazo a la cooperación. Además, demostramos que los ataques de repetición a nivel de prellenado mejoran eficazmente la tasa de éxito de los ataques a nivel de mensaje existentes entre un 10 y un 15 %. La evaluación de varias estrategias de defensa reveló que los filtros de contenido existentes ofrecen una protección limitada, y que los métodos de detección centrados en la relación operativa entre los mensajes y el prellenado son más eficaces. En conclusión, exponemos vulnerabilidades en la actual alineación de seguridad de LLM y enfatizamos la necesidad de abordar superficies de ataque pre-llenadas en futuras capacitaciones de seguridad.