Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Parse Trees Guided LLM Prompt Compression

Created by
  • Haebom

저자

Wenhao Mao, Chengbin Hou, Tianyu Zhang, Xinyu Lin, Ke Tang, Hairong Lv

개요

본 논문은 대규모 언어 모델(LLM)의 성능 향상을 위해 풍부한 맥락을 제공하는 방법을 연구합니다. 긴 프롬프트로 인한 계산 비용 증가와 LLM 입력 제한 문제를 해결하기 위해, 기존의 생성적 압축 방식과 선택적 압축 방식의 한계를 극복하는 새로운 선택적 압축 방법인 PartPrompt를 제안합니다. PartPrompt는 언어 규칙 기반의 구문 트리를 활용하여 각 노드의 정보 엔트로피를 계산하고, 이를 바탕으로 계층적 구조(문장, 단락, 섹션의 의존성)를 고려한 전역 트리를 구성합니다. 전역 트리 상에서 상향식 및 하향식 전파를 통해 노드 값을 조정하고, 조정된 노드 값을 기반으로 재귀적 알고리즘을 사용하여 트리를 가지치기하여 프롬프트를 압축합니다. 실험 결과, PartPrompt는 다양한 데이터셋, 평가 지표, 압축 비율, 그리고 LLM에서 최첨단 성능을 달성하며, 압축된 프롬프트의 응집성과 극도로 긴 프롬프트 시나리오에서도 우수성을 보여줍니다.

시사점, 한계점

시사점:
LLM의 입력 제한 및 계산 비용 문제를 효과적으로 해결하는 새로운 프롬프트 압축 방법 제시.
언어 규칙과 글로벌 구조를 고려하여 기존 방법의 한계를 극복.
다양한 데이터셋과 LLM에서 최첨단 성능 달성.
압축된 프롬프트의 응집성 향상.
극도로 긴 프롬프트에도 효과적임을 증명.
한계점:
PartPrompt의 성능은 언어 규칙과 구문 분석의 정확성에 의존적일 수 있음.
특정 언어 또는 도메인에 대한 일반화 성능에 대한 추가 연구 필요.
매우 복잡한 구조의 프롬프트에 대한 처리 효율성 평가 필요.
👍