Este artículo presenta el marco de trabajo Transforming Pretrained Transformers into Titans (TPTT) para reducir los requisitos computacionales y de memoria de los modelos de lenguaje a gran escala (LLM) basados en Transformers. TPTT incorpora atención linealizada (LiZA) y control de memoria (MaG) a los Transformers preentrenados, lo que permite un ajuste fino con eficiencia de parámetros (LoRA) y la integración con herramientas estándar como los Hugging Face Transformers. Evaluamos la implementación de TPTT en modelos preentrenados de diversos tamaños, incluyendo Llama-1B y OlMoE-1B-7B, y demostramos mejoras en la eficiencia y la precisión en modelos con aproximadamente mil millones de parámetros, según el parámetro de referencia MMLU. Específicamente, Titans-Llama-1B logra una mejora de la precisión de hasta un 20% en la evaluación de una sola prueba. Además, demostramos que los modelos de atención cuadrática pueden transformarse en modelos de atención puramente lineales mediante el mecanismo DeltaProduct. Esto demuestra que el entrenamiento con recursos computacionales limitados es viable y podría ser beneficioso para aplicar LLM preentrenados a tareas de contexto largo.