Este artículo enfatiza la importancia del control generativo para el despliegue seguro y confiable de modelos de lenguaje a gran escala (LLMs), e introduce la tendencia de investigación de la dirección latente, una técnica ligera, además de la ingeniería de indicaciones y el ajuste fino existentes. Sin embargo, señala que el efecto de la dirección latente existente es limitado, y sugiere criterios de evaluación estandarizados para diversas acciones para mejorarlo. Con base en esto, proponemos el Impulso de Atención de Instrucciones (InstABoost), una novedosa técnica de dirección latente que amplifica el efecto de las indicaciones al controlar la atención del modelo durante el proceso de generación. InstABoost combina las ventajas de los enfoques existentes y se basa en estudios previos que indican que la manipulación de la atención puede controlar el cumplimiento de las reglas contextuales en modelos basados en transformadores. Los resultados experimentales muestran que InstABoost supera las técnicas existentes de indicación y dirección latente en términos de rendimiento de control.