Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Frequency and Generalisation of Periodic Activation Functions in Reinforcement Learning

Created by
  • Haebom
Category
Empty

저자

Augustine N. Mavor-Parker, Matthew J. Sargent, Caswell Barry, Lewis Griffin, Clare Lyle

개요

본 논문은 주기적 활성화 함수(learned Fourier features)가 다양한 심층 강화 학습 알고리즘에서 표본 효율성과 안정성을 향상시키는 것으로 널리 알려져 있으나, 그 이유에 대한 상반된 가설들이 존재함을 지적합니다. 낮은 주파수 표현 학습을 통한 과적합 방지와 높은 주파수 표현 학습을 통한 표현력 증가라는 두 가지 가설을 실험적으로 분석하여, 주기적 표현이 초기 주파수에 관계없이 일관되게 높은 주파수로 수렴함을 밝힙니다. 또한 주기적 활성화 함수는 표본 효율성을 향상시키지만, 특히 ReLU 활성화 함수를 사용하는 네트워크와 비교했을 때, 관측 노이즈가 추가된 상태에서는 일반화 성능이 저하됨을 보여줍니다. 마지막으로, 가중치 감쇠 정규화가 주기적 활성화 함수의 과적합을 부분적으로 상쇄하여 빠른 학습과 일반화 성능을 동시에 달성할 수 있음을 제시합니다.

시사점, 한계점

시사점: 주기적 활성화 함수는 높은 주파수 표현을 학습하며 표본 효율성을 향상시키지만, 과적합 문제를 야기할 수 있음을 보여줍니다. 가중치 감쇠 정규화를 통해 이러한 과적합 문제를 완화할 수 있습니다.
한계점: 주기적 활성화 함수는 관측 노이즈가 있는 상태에서는 일반화 성능이 저하됩니다. ReLU 활성화 함수와의 비교 분석 결과가 주기적 활성화 함수의 일반화 성능 저하를 명확하게 보여줍니다.
👍