본 논문은 현대 머신러닝 모델에서 매우 바람직한 두 가지 특성인 강건성과 자원 효율성을 동시에 달성하는 방법에 대해 연구합니다. 높은 학습률이 허위 상관관계에 대한 강건성과 네트워크 압축성을 동시에 달성하는 데 도움이 된다는 점을 제시합니다. 높은 학습률은 불변 특징 활용, 클래스 분리, 활성화 스파스성과 같은 바람직한 표현 특성을 생성하며, 다른 하이퍼파라미터 및 정규화 방법보다 이러한 특성들을 일관되게 충족하는 데 유리함을 보여줍니다. 다양한 허위 상관관계 데이터셋, 모델 및 최적화기에 걸쳐 높은 학습률의 긍정적 효과를 보여주는 것 외에도, 표준 분류 작업에서 높은 학습률의 성공이 훈련 데이터셋의 숨겨진/희귀한 허위 상관관계를 해결하는 효과 때문일 가능성이 높다는 강력한 증거를 제시합니다.