Cet article souligne l'importance du contrôle génératif pour un déploiement sûr et fiable des modèles de langage à grande échelle (MLH). Il présente également la tendance de recherche du pilotage latent, une technique légère, en complément des techniques d'ingénierie et de réglage fin des invites existantes. Cependant, il souligne que l'effet du pilotage latent actuel est limité et propose des critères d'évaluation standardisés pour diverses actions visant à l'améliorer. Sur cette base, nous proposons InstABoost (Instruction Attention Boosting), une nouvelle technique de pilotage latent qui amplifie l'effet des invites en contrôlant l'attention du modèle pendant le processus de génération. InstABoost combine les avantages des approches existantes et s'appuie sur des études antérieures montrant que la manipulation de l'attention peut contrôler la conformité aux règles contextuelles dans les modèles basés sur des transformateurs. Les résultats expérimentaux montrent qu'InstABoost surpasse les techniques existantes de pilotage latent et d'invite en termes de performances de contrôle.