Cet article propose une nouvelle stratégie de décodage, le décodage par évitement, pour résoudre le problème des modèles de langage à grande échelle (MLH) générant des sorties répétitives et monotones en raison d'une diversité créative limitée pour une même invite d'entrée, en particulier dans des tâches telles que la génération d'histoires. Le décodage par évitement modifie les logits symboliques en pénalisant la similarité avec les sorties générées précédemment, encourageant ainsi des récits multi-branches plus diversifiés. Cette pénalité est équilibrée de manière adaptative, privilégiant les pénalités de similarité au niveau des concepts dans les premières étapes afin de promouvoir la diversité des premiers concepts de l'histoire, et accentuant progressivement les pénalités de similarité au niveau narratif dans les étapes ultérieures afin de garantir des développements d'intrigue naturels mais diversifiés. La méthode proposée atteint une diversité de sortie jusqu'à 2,6 fois supérieure aux méthodes existantes, réduit la répétition de 30 % en moyenne et atténue efficacement la dégradation du texte. De plus, nous démontrons que la méthode active un plus large éventail de neurones, exploitant ainsi la créativité inhérente au modèle.