本稿では、大規模言語モデル(LLM)の安全で信頼性の高い展開のための生成制御の重要性を強調し、従来のプロンプトエンジニアリングとファインチューニングに加えて、軽量技術である潜在的なステアリングの研究動向を紹介します。しかし、既存の潜在的なステアリングの効果が限られていることを指摘し、それを改善するためにさまざまな行動の標準化された評価基準を提示します。これに基づき,生成過程でモデルのアテンションを調整してプロンプトの効果を増幅する新しい潜在的操舵技術であるInstruction Attention Boosting(InstABoost)を提案する。 InstABoostは、従来のアプローチの利点を組み合わせて、トランスベースのモデルでコンテキストルールコンプライアンスをアテンション操作で制御できるという以前の研究に基づいています。実験の結果、InstABoostは従来のプロンプトおよび潜在的なステアリング技術より優れた制御性能を示した。