본 논문은 대규모 언어 모델(LLM)의 성능 향상을 위해 풍부한 맥락을 제공하는 방법을 연구합니다. 긴 프롬프트로 인한 계산 비용 증가와 LLM 입력 제한 문제를 해결하기 위해, 기존의 생성적 압축 방식과 선택적 압축 방식의 한계를 극복하는 새로운 선택적 압축 방법인 PartPrompt를 제안합니다. PartPrompt는 언어 규칙 기반의 구문 트리를 활용하여 각 노드의 정보 엔트로피를 계산하고, 이를 바탕으로 계층적 구조(문장, 단락, 섹션의 의존성)를 고려한 전역 트리를 구성합니다. 전역 트리 상에서 상향식 및 하향식 전파를 통해 노드 값을 조정하고, 조정된 노드 값을 기반으로 재귀적 알고리즘을 사용하여 트리를 가지치기하여 프롬프트를 압축합니다. 실험 결과, PartPrompt는 다양한 데이터셋, 평가 지표, 압축 비율, 그리고 LLM에서 최첨단 성능을 달성하며, 압축된 프롬프트의 응집성과 극도로 긴 프롬프트 시나리오에서도 우수성을 보여줍니다.