Cet article est le troisième d'une série de courts rapports conçus pour aider à comprendre les détails techniques des interactions entre les modèles d'IA grâce à des tests rigoureux. Ce rapport examine l'efficacité de deux méthodes couramment utilisées pour améliorer les performances de l'IA : les modèles d'IA « incitatifs » et « menaçants ». Des expériences utilisant les benchmarks GPQA et MMLU-Pro montrent que les modèles menaçants ou incitatifs n'ont pas d'impact significatif sur les performances des benchmarks. Cependant, si des variations d'invites question par question peuvent avoir un impact significatif sur les performances, il est difficile de savoir à l'avance si une approche d'invite particulière sera bénéfique ou néfaste pour une question donnée. Cela suggère que de simples variations d'invites pourraient ne pas être aussi efficaces qu'on le pensait, en particulier pour les problèmes complexes.