Este artículo investiga el impacto del sesgo del modelo lingüístico en las preferencias de respuesta en la tarea de Comprensión Lingüística Multitarea Masiva (MMLU). Los resultados muestran que el sesgo del modelo lingüístico predice las preferencias del modelo y refleja las estrategias humanas para realizar exámenes, incluso al utilizar la inferencia CoT. Para abordar este problema, los autores introducen la inducción contrafáctica y la CoT con preparación indiscriminada (APriCoT). Si bien la inducción contrafáctica por sí sola con CoT es insuficiente para mitigar el sesgo, APriCoT reduce eficazmente la influencia de la probabilidad subyacente y mejora la precisión general. CoT tiende a reforzar el sesgo del modelo de pensamiento rápido bajo ciertos métodos de inducción, lo que sugiere que el pensamiento lento es necesario para mitigar el sesgo. APriCoT representa un paso hacia el desarrollo de un modelo lingüístico de "pensamiento lento" más robusto y justo.