Este artículo aborda los desafíos éticos de los modelos lingüísticos a gran escala (LLM) y plantea nuevas posibilidades para el desarrollo de tecnologías de detección de lenguaje tóxico. Si bien estudios previos han utilizado datos basados en asociaciones semánticas simples (p. ej., asociaciones sesgadas entre "él" y "programador" y "ella" y "ama de casa"), este estudio recopila datos de interacciones tóxicas del mundo real, lo que evita la censura en línea y ha sido identificado por evaluadores humanos como un método que requiere inferencia. Basándonos en estos datos, proponemos un novedoso método de inducción, la Cadena de Inferencia Pragmática (PIC), que aprovecha la investigación en ciencias cognitivas y lingüística. Demostramos que la inducción PIC mejora significativamente la tasa de éxito en la identificación de lenguaje tóxico implícito en comparación con los métodos de inducción existentes (p. ej., CoT, basado en reglas), en modelos como GPT-4o, Llama-3.1-70B-Instruct, DeepSeek-v2.5 y DeepSeek-v3, y produce procesos de inferencia más claros y consistentes. Esto sugiere que nuestro método podría generalizarse a otras tareas que requieren mucha inferencia, como la comprensión del humor y de metáforas.