En este artículo, proponemos LagKV, una novedosa estrategia de compresión de KV que no depende de ponderaciones de atención, para abordar el problema del aumento del tamaño de la caché clave-valor (KV) en la inferencia de texto largo para modelos lingüísticos a gran escala. Mientras que los métodos actuales de ponderación de atención requieren modificaciones importantes en la infraestructura de inferencia y una carga computacional significativa, LagKV logra una compresión eficiente sin necesidad de computación de atención, simplemente mediante comparaciones entre KV. En los resultados de la prueba de referencia RULER, LagKV supera a SnapKV y StreamingLLM, y en particular, supera al método de ponderación de atención $H_2O$ en más del 50% en la tarea de recuperación de contraseñas de 64 caracteres. El código fuente está disponible en GitHub.