Este artículo aborda el problema de los riesgos sociales amplificados de la desinformación generada algorítmicamente debido al uso generalizado de modelos lingüísticos a gran escala (LLM). A diferencia de la desinformación tradicional, la generada por LLM se autorrefuerza, es altamente plausible y puede propagarse rápidamente a través de múltiples idiomas, lo que dificulta su mitigación efectiva mediante los métodos de detección tradicionales. En este artículo, presentamos un paradigma de defensa proactiva que evoluciona desde la detección pasiva post-hoc hacia estrategias de mitigación predictivas. Proponemos un marco de tres pilares: "fiabilidad del conocimiento", "fiabilidad de la inferencia" y "robusto de la entrada". Mediante un estudio exhaustivo y un metaanálisis comparativo de las técnicas existentes, demostramos que las estrategias de defensa proactiva mejoran la prevención de la desinformación hasta en un 63% en comparación con los métodos existentes, a pesar del mayor costo computacional y los problemas de generalización. Argumentamos que la investigación futura debería centrarse en el codiseño de una base de conocimiento robusta, la verificación de inferencias e interfaces resistentes a ataques para que los LLM puedan contrarrestar eficazmente la desinformación en diversos campos.