Cet article explore comment fournir un contexte riche pour améliorer les performances des modèles linguistiques à grande échelle (MLH). Pour pallier le coût de calcul accru des invites longues et la taille limitée des entrées des LH, nous proposons PartPrompt, une nouvelle méthode de compression sélective qui surmonte les limites des méthodes de compression génératives et sélectives existantes. PartPrompt utilise un arbre syntaxique basé sur des règles linguistiques pour calculer l'entropie de l'information de chaque nœud et, sur cette base, construit un arbre global prenant en compte la structure hiérarchique (dépendances entre phrases, paragraphes et sections). Il ajuste les valeurs des nœuds par propagation ascendante et descendante sur l'arbre global, puis compresse les invites en élaguant l'arbre à l'aide d'un algorithme récursif basé sur les valeurs des nœuds ajustées. Les résultats expérimentaux démontrent que PartPrompt atteint des performances de pointe sur divers ensembles de données, métriques d'évaluation, taux de compression et LH. Il démontre également une supériorité en termes de cohésion des invites compressées et dans les scénarios d'invites extrêmement longues.