본 논문은 128K~1M 토큰에 이르는 긴 문맥 창을 사용하는 대규모 언어 모델(LLM)에서 효율적인 장문맥 추론의 중요성을 강조합니다. 기존의 키-값(KV) 캐시 증가와 어텐션의 높은 계산 복잡도로 인한 메모리 사용량 및 지연 시간 문제를 해결하기 위해, 다양한 장문맥 작업에서 어텐션의 희소성을 발견하고, LLM이 사전 채우기 단계 후에 어떤 토큰을 삭제하거나 제거할 수 있는지 내재적으로 "알고 있다"는 사실을 밝힙니다. 이러한 통찰력을 바탕으로, 간단하면서도 효과적인 장문맥 추론을 위한 KV 제거 캐시 메서드인 Self-Attention Guided Eviction (SAGE-KV)을 제안합니다. SAGE-KV는 사전 채우기 후 토큰 및 헤드 수준에서 일회성 top-k 선택을 수행하여 KV 캐시를 압축함으로써 효율적인 추론을 가능하게 합니다. LongBench와 세 가지 장문맥 LLM(Llama3.1-8B-Instruct-128k, Llama3-8B-Prolong-512k-Instruct, Qwen2.5-7B-Instruct-128k)에 대한 평가 결과, SAGE-KV는 전체 어텐션과 비교하여 정확도를 유지하면서 효율성을 크게 향상시키는 것으로 나타났습니다. 특히, SAGE-KV는 정적 KV 캐시 선택 메서드인 StreamLLM에 비해 4배 높은 메모리 효율성을 달성했고, 동적 KV 캐시 선택 메서드인 Quest에 비해 2배 높은 메모리 효율성과 더 나은 정확도를 보였습니다.