Los Modelos de Lenguaje a Gran Escala (LLM) ofrecen capacidades innovadoras para la automatización del diseño de hardware, incluyendo la generación de código Verilog. Sin embargo, también plantean importantes desafíos para la seguridad de los datos, como la contaminación de los datos de evaluación Verilog, la fuga de información sobre propiedad intelectual (PI) en el diseño y el riesgo de generación maliciosa de Verilog. Este artículo presenta SALAD, una evaluación integral que aprovecha el desaprendizaje automático para mitigar estas amenazas. SALAD permite la eliminación selectiva de benchmarks contaminados, artefactos de diseño y PI sensibles, o patrones de código malicioso de LLM preentrenados sin necesidad de un reentrenamiento completo.