Cet article se concentre sur le contre-discours (réfutation) comme stratégie pour contrer les contenus en ligne préjudiciables (théories du complot). Face à la difficulté de déploiement à grande échelle du contre-discours mené par des experts, nous proposons une méthode utilisant des modèles linguistiques à grande échelle (MLH). Cependant, nous soulignons l'absence de données sur le contre-discours pour les théories du complot. Nous évaluons les capacités de génération de contre-discours des modèles GPT-4o, Llama 3 et Mistral à l'aide de messages structurés issus de recherches en psychologie. Les résultats expérimentaux montrent que ces modèles ont tendance à produire des résultats génériques, répétitifs et superficiels, à surévaluer la peur et à fabriquer des faits, des sources et des chiffres. Cela suggère que les approches basées sur des messages posent des difficultés d'application pratique.