En este artículo, proponemos ICRT, un novedoso marco de ataque de fuga de información que elude los mecanismos de seguridad de los modelos de lenguaje a gran escala (LLM). A diferencia de estudios previos que se basan en la optimización aleatoria o el diseño manual, ICRT induce eficazmente resultados maliciosos al reducir la complejidad de las indicaciones maliciosas y aumentar la consistencia semántica mediante el aprovechamiento de la heurística y los sesgos de la cognición humana (efecto de simplificación, sesgo de relevancia). Además, presentamos una novedosa métrica de evaluación de la nocividad basada en rangos que cuantifica exhaustivamente la nocividad del contenido generado mediante métodos de agregación de rangos como Elo, HodgeRank y Rank Centrality. Los resultados experimentales muestran que ICRT elude sistemáticamente los mecanismos de seguridad de los principales LLM y genera contenido de alto riesgo, lo que proporciona información sobre los riesgos de los ataques de fuga de información y contribuye al desarrollo de estrategias de defensa más robustas.