Este artículo es el tercero de una serie de informes breves diseñados para ayudar a comprender los detalles técnicos de las interacciones de los modelos de IA mediante pruebas rigurosas. Este informe examina la eficacia de dos métodos comunes para mejorar el rendimiento de la IA: modelos de IA de "incitación" y modelos de "amenaza". Experimentos realizados con los benchmarks GPQA y MMLU-Pro muestran que la amenaza o el uso de modelos de "incitación" no afectan significativamente el rendimiento del benchmark. Sin embargo, si bien las variaciones de las indicaciones pregunta por pregunta pueden afectar significativamente el rendimiento, es difícil saber de antemano si un enfoque de incitación específico será beneficioso o perjudicial para una pregunta determinada. Esto sugiere que las variaciones simples de las indicaciones podrían no ser tan eficaces como se suponía, especialmente para problemas complejos.