Dans cet article, nous proposons ICRT, un nouveau framework d'attaque par jailbreak qui contourne les mécanismes de sécurité des modèles de langage à grande échelle (LLM). Contrairement aux études précédentes qui s'appuyaient sur l'optimisation aléatoire ou la conception manuelle, ICRT induit efficacement des sorties malveillantes en réduisant la complexité des invites malveillantes et en augmentant la cohérence sémantique en exploitant les heuristiques et les biais de la cognition humaine (effet de simplification, biais de pertinence). De plus, nous présentons une nouvelle mesure d'évaluation de la nocivité basée sur le rang qui quantifie de manière exhaustive la nocivité des contenus générés à l'aide de méthodes d'agrégation de rangs telles que Elo, HodgeRank et Rank Centrality. Les résultats expérimentaux montrent qu'ICRT contourne systématiquement les mécanismes de sécurité des principaux LLM et génère des contenus à haut risque, ce qui fournit des informations sur les risques d'attaques par jailbreak et contribue au développement de stratégies de défense plus robustes.