Este artículo propone una novedosa estrategia de decodificación, la Decodificación de Evitación, para abordar el problema de los modelos de lenguaje a gran escala (LLM) que generan resultados repetitivos y monótonos debido a la limitada diversidad creativa para la misma consigna de entrada, especialmente en tareas como la generación de historias. La Decodificación de Evitación modifica los logits de tokens penalizando la similitud con los resultados generados previamente, fomentando así narrativas multirama más diversas. Esta penalización se equilibra adaptativamente, priorizando las penalizaciones de similitud a nivel de concepto en las etapas iniciales para promover la diversidad en los conceptos iniciales de la historia, y enfatizando gradualmente las penalizaciones de similitud a nivel de narrativa en las etapas posteriores para garantizar desarrollos argumentales naturales pero diversos. El método propuesto logra una diversidad de resultados hasta 2,6 veces mayor que los métodos existentes, reduce la repetición en un promedio del 30% y mitiga eficazmente la degradación del texto. Además, demostramos que el método activa un rango más amplio de neuronas, aprovechando así la creatividad inherente del modelo.