Este artículo se centra en el contradiscurso (refutación) como estrategia para contrarrestar el contenido dañino en línea (teorías conspirativas). Dado que el contradiscurso impulsado por expertos tiene dificultades para escalarse, proponemos un método que utiliza modelos lingüísticos a gran escala (LLM). Sin embargo, destacamos la falta de un conjunto de datos de contradiscurso para teorías conspirativas. Evaluamos la capacidad de generación de contradiscurso de los modelos GPT-4o, Llama 3 y Mistral mediante indicaciones estructuradas basadas en investigación psicológica. Los resultados experimentales muestran que estos modelos tienden a producir resultados genéricos, repetitivos y superficiales, a sobreenfatizar el miedo y a inventar hechos, fuentes y cifras. Esto sugiere que los enfoques basados en indicaciones plantean desafíos para su aplicación práctica.