Este artículo aborda el procesamiento de textos extensos de los modelos de lenguaje a gran escala (LLM) basados en Transformers. Los LLM presentan un buen rendimiento en tareas con textos cortos, pero su rendimiento se deteriora en contextos de texto extenso. Para abordar esta cuestión, revisamos sistemáticamente estudios recientes y proponemos un esquema de clasificación que los categoriza en cuatro tipos: codificación posicional, compresión de contexto, aumento de la recuperación y patrones de atención. Además, organizamos datos, tareas y métricas relevantes con base en parámetros de referencia existentes para contextos de texto extenso, nos centramos en la evaluación de este contexto, resumimos problemas pendientes y ofrecemos perspectivas sobre futuras líneas de desarrollo.