본 논문은 현대 딥러닝 모델의 과도한 매개변수화로 인해 발생하는 중복성을 설명하는 매개변수 공간 대칭성에 대한 연구를 다룬다. 매개변수 공간 대칭성은 네트워크 함수를 변경하지 않는 변환으로, 손실 함수의 형태를 결정하고 학습 역학을 제한하며, 최적화, 일반화, 모델 복잡성을 이해하는 새로운 관점을 제시한다. 본 연구는 매개변수 공간 대칭성에 대한 기존 연구를 요약하고, 대칭성과 학습 이론 간의 연관성을 밝히며, 이 분야의 격차와 기회를 제시한다.