본 논문은 데이터 분포에 존재하는 대칭성을 활용하여 일반화 성능과 샘플 효율성을 높이는 등변량 신경망의 한계를 해결하기 위해 Adaptive Constrained Equivariance (ACE)를 제시합니다. 실제 데이터는 노이즈, 구조적 변이, 측정 편향 등으로 완벽한 대칭성을 갖지 않는 경우가 많으므로, 엄격한 등변량 모델은 데이터 적합에 어려움을 겪고, 제약 없는 모델은 부분적인 대칭성을 활용하는 체계적인 방법이 부족합니다. ACE는 준동형 원리를 기반으로, 유연한 비등변량 모델에서 시작하여 점진적으로 등변량성에서 벗어나는 정도를 줄이는 제약 최적화 방식을 사용합니다. 이를 통해 초기 학습을 원활하게 하고, 데이터 기반 평형 상태에서 등변량성과 비등변량성 간의 균형을 맞춥니다. 다양한 아키텍처와 작업에서 ACE는 엄격한 등변량 모델 및 휴리스틱 등변량 완화 기법에 비해 성능 지표, 샘플 효율성 및 입력 섭동에 대한 강건성을 향상시킵니다.