Sign In

Robust Weight Initialization for Tanh Neural Networks with Fixed Point Analysis

Created by
  • Haebom
Category
Empty

저자

Hyunwoo Lee, Hayoung Choi, Hyunju Kim

개요

본 논문은 tanh 활성화 함수를 사용하는 신경망을 위한 새로운 가중치 초기화 방법을 제안합니다. tanh 활성화 함수의 고정점 분석을 기반으로, 활성화 함수의 포화를 완화하는 a 값을 결정하는 것을 목표로 합니다. 다양한 분류 데이터셋과 물리 정보 신경망에 대한 실험을 통해 제안된 방법이 Xavier 초기화 방법(정규화 유무)보다 네트워크 크기, 데이터 효율성 및 수렴 속도 측면에서 강건성이 뛰어남을 보여줍니다. GitHub에 코드를 공개했습니다.

시사점, 한계점

시사점: tanh 활성화 함수를 사용하는 심층 신경망의 학습 안정성 및 성능 향상에 기여할 수 있는 새로운 가중치 초기화 방법을 제시합니다. Xavier 초기화 방법보다 우수한 성능과 강건성을 보입니다.
한계점: 제안된 방법의 효과는 tanh 활성화 함수를 사용하는 네트워크에 국한될 수 있습니다. 다른 활성화 함수에 대한 일반화 가능성은 추가 연구가 필요합니다. 실험은 특정 데이터셋과 네트워크 구조에 국한되어 있으며, 더욱 다양한 환경에서의 성능 평가가 필요합니다.
👍