본 논문은 소규모 데이터 환경에서 모델의 표현력을 의도적으로 증폭시키는 새로운 기법인 "역정규화(Anti-regularization)"를 제안합니다. 역정규화는 손실 함수에 부호가 반전된 보상 항을 도입하여 작은 표본 크기에서는 모델의 표현력을 높이고, 표본 크기가 증가함에 따라 거듭제곱 법칙 감소 일정에 따라 개입이 점진적으로 사라지도록 합니다. 본 논문에서는 스펙트럼 안전 조건과 신뢰 영역 제약 조건을 공식화하고, 투영 연산자와 기울기 클리핑을 결합한 가벼운 안전 장치를 설계하여 안정적인 개입을 보장합니다. 이론적 분석은 선형 평활화 및 신경 탄젠트 커널 체제로 확장되어 경험적 위험과 분산 간의 균형을 통해 감쇠 지수 선택에 대한 실용적인 지침을 제공합니다. 실험 결과는 역정규화가 회귀와 분류 모두에서 과소적합을 완화하는 동시에 일반화 성능을 유지하고 보정을 개선함을 보여줍니다. 추가 분석은 감쇠 일정과 안전 장치가 과적합과 불안정성을 피하는 데 필수적임을 확인합니다. 또한, 표본당 복잡도를 일정하게 유지하는 자유도 목표 일정을 제안합니다. 역정규화는 표준 경험적 위험 최소화 파이프라인에 원활하게 통합되는 간단하고 재현 가능한 절차로, 필요할 때만 개입하고 그렇지 않으면 사라짐으로써 제한된 데이터 및 자원 제약 조건 하에서 강력한 학습을 가능하게 합니다.