Cet article propose l'« anti-régularisation », une nouvelle technique qui améliore intentionnellement la puissance expressive des modèles dans les environnements à faibles volumes de données. L'anti-régularisation introduit un terme de récompense inversé dans la fonction de perte, améliorant ainsi la puissance expressive des modèles pour les petits échantillons et atténuant les interventions à mesure que la taille de l'échantillon augmente, selon un schéma de décroissance en loi de puissance. Nous formulons des conditions de sécurité spectrale et des contraintes de région de confiance, et concevons un mécanisme de sécurité léger combinant un opérateur de projection et un écrêtage de gradient pour garantir des interventions stables. L'analyse théorique s'étend aux régimes de lissage linéaire et de noyau tangent neuronal, fournissant des conseils pratiques pour le choix d'un exposant de décroissance par un compromis empirique entre risque et variance. Les résultats expérimentaux démontrent que l'anti-régularisation atténue le sous-ajustement en régression et en classification, tout en maintenant les performances de généralisation et en améliorant le calibrage. Des analyses plus approfondies confirment que le schéma de décroissance et le mécanisme de sécurité sont essentiels pour éviter le sur-ajustement et l'instabilité. De plus, nous proposons un schéma cible à degrés de liberté qui maintient une complexité par échantillon constante. La dénormalisation est une procédure simple et reproductible qui s'intègre parfaitement dans les pipelines de minimisation des risques empiriques standard, permettant un apprentissage robuste sous des contraintes de données et de ressources limitées en intervenant uniquement lorsque cela est nécessaire et en rejetant dans le cas contraire.