N-ReLU는 딥 뉴럴 네트워크에서 비선형 표현을 가능하게 하는 활성화 함수로, ReLU의 문제점인 "dead" 뉴런 문제를 해결하기 위해 고안되었습니다. N-ReLU는 음수 활성화를 평균이 0인 가우시안 노이즈로 대체하여 예상 출력값을 동일하게 유지합니다. MNIST 데이터셋에서 MLP 및 CNN 아키텍처를 사용하여 실험한 결과, N-ReLU는 ReLU, LeakyReLU, PReLU, GELU, RReLU와 유사하거나 약간 더 높은 정확도를 보였으며, 안정적인 수렴과 dead 뉴런이 없는 것을 확인했습니다.