Este artículo explora cómo proporcionar un contexto rico para mejorar el rendimiento de los modelos lingüísticos a gran escala (LLM). Para abordar el mayor coste computacional de los modelos lingüísticos extensos y el tamaño de entrada limitado de los LLM, proponemos PartPrompt, un novedoso método de compresión selectiva que supera las limitaciones de los métodos generativos y selectivos existentes. PartPrompt utiliza un árbol sintáctico basado en reglas lingüísticas para calcular la entropía de la información de cada nodo y, con base en esto, construye un árbol global que considera la estructura jerárquica (dependencias entre oraciones, párrafos y secciones). Ajusta los valores de los nodos mediante propagación ascendente y descendente en el árbol global y, posteriormente, comprime los modelos lingüísticos mediante la poda del árbol mediante un algoritmo recursivo basado en los valores ajustados. Los resultados experimentales demuestran que PartPrompt alcanza un rendimiento de vanguardia en diversos conjuntos de datos, métricas de evaluación, tasas de compresión y LLM. También demuestra superioridad en la cohesión de los modelos lingüísticos comprimidos y en escenarios con modelos lingüísticos extremadamente largos.