Este artículo propone la "antiregularización", una técnica novedosa que potencia intencionalmente la expresividad de los modelos en entornos con datos pequeños. La antiregularización introduce un término de recompensa invertido en la función de pérdida, lo que mejora la expresividad de los modelos con muestras pequeñas y reduce la intensidad de las intervenciones a medida que aumenta el tamaño de la muestra, siguiendo una escala de decaimiento de ley de potencia. Formulamos condiciones de seguridad espectral y restricciones de la región de confianza, y diseñamos un mecanismo de seguridad ligero que combina un operador de proyección y recorte de gradiente para garantizar la estabilidad de las intervenciones. El análisis teórico se extiende al suavizado lineal y a los regímenes de kernel tangente neuronal, proporcionando una guía práctica para la selección de un exponente de decaimiento mediante un equilibrio empírico entre riesgo y varianza. Los resultados experimentales demuestran que la antiregularización mitiga el subajuste tanto en regresión como en clasificación, a la vez que mantiene el rendimiento de generalización y mejora la calibración. Análisis posteriores confirman que la escala de decaimiento y el mecanismo de seguridad son esenciales para evitar el sobreajuste y la inestabilidad. Además, proponemos una escala objetivo de grados de libertad que mantiene constante la complejidad por muestra. La desnormalización es un procedimiento simple y reproducible que se integra perfectamente en los procesos estándar de minimización de riesgos empíricos, lo que permite un aprendizaje sólido en condiciones de datos y recursos limitados, interviniendo solo cuando es necesario y descartando lo demás.