본 논문은 딥러닝에서 과적합 후 갑작스러운 일반화 현상인 "그로킹(Grokking)"에 대한 새로운 이해를 제시합니다. 기존 연구에서 그로킹의 원인과 정규화의 역할에 대한 명확한 설명이 부족했던 점을 지적하며, 정규화 없이 그로킹 과제를 수행하면 모델이 수치적 안정성의 한계에 도달하고, 소프트맥스 함수에서 부동 소수점 오류(소프트맥스 붕괴, SC)가 발생한다고 주장합니다. 이러한 SC가 그로킹을 방해하며, SC를 완화하면 정규화 없이도 그로킹이 가능함을 보여줍니다. 또한 과적합 지점을 넘어서 기울기가 "순진한 손실 최소화(NLM)" 방향과 강하게 정렬되는데, 이는 모델 예측을 변경하지 않고 로그값의 스케일링을 통해 손실을 감소시키는 요소라고 설명합니다. 이러한 로그값 스케일링이 그로킹의 지연된 일반화를 설명하고 결국 SC를 유발하여 학습을 중단시킨다고 주장합니다. 이러한 가설을 검증하기 위해 SC를 방지하고 정규화 없이 그로킹을 가능하게 하는 새로운 활성화 함수 StableMax와 NLM을 방지하여 그로킹 과제에서 빠른 일반화를 촉진하는 훈련 알고리즘 $\perp$Grad를 제안합니다.