본 논문은 주기적 활성화 함수(learned Fourier features)가 다양한 심층 강화 학습 알고리즘에서 표본 효율성과 안정성을 향상시키는 것으로 널리 알려져 있으나, 그 이유에 대한 상반된 가설들이 존재함을 지적합니다. 낮은 주파수 표현 학습을 통한 과적합 방지와 높은 주파수 표현 학습을 통한 표현력 증가라는 두 가지 가설을 실험적으로 분석하여, 주기적 표현이 초기 주파수에 관계없이 일관되게 높은 주파수로 수렴함을 밝힙니다. 또한 주기적 활성화 함수는 표본 효율성을 향상시키지만, 특히 ReLU 활성화 함수를 사용하는 네트워크와 비교했을 때, 관측 노이즈가 추가된 상태에서는 일반화 성능이 저하됨을 보여줍니다. 마지막으로, 가중치 감쇠 정규화가 주기적 활성화 함수의 과적합을 부분적으로 상쇄하여 빠른 학습과 일반화 성능을 동시에 달성할 수 있음을 제시합니다.