En este artículo, proponemos la Compresión Guiada por Peso Normalizado y Activación (NoWag), un marco unificado para algoritmos de compresión de cero disparos con preservación de forma, que aborda los altos requisitos computacionales y de memoria que limitan la implementación de modelos de lenguaje a gran escala (LLM) en entornos con recursos limitados. NoWag comprime los modelos Llama-2 7B/13B/70B y Llama-3 8B/70B mediante dos métodos de compresión con preservación de forma: cuantificación vectorial (NoWag-VQ) y poda no estructurada/semiestructurada (NoWag-P). Los resultados experimentales muestran que NoWag-VQ supera significativamente a los métodos de cuantificación vectorial de cero disparos más avanzados, y que NoWag-P es competitivo con estos métodos. Esto sugiere puntos en común entre diferentes paradigmas de compresión y sirve de inspiración para futuras investigaciones. El código fuente está disponible en GitHub.