본 논문은 새로운 활성화 함수인 Gompertz Linear Unit (GoLU)을 제안합니다. GoLU는 Gompertz 함수의 우측으로 치우친 비대칭성을 활용하여 기존의 GELU나 Swish보다 효과적으로 잠재 공간의 분산을 줄이고, 안정적인 기울기 흐름을 유지합니다. 이미지 분류, 언어 모델링, 의미론적 분할, 객체 탐지, 인스턴스 분할 및 확산과 같은 다양한 작업에 대한 광범위한 실험을 통해 기존 최첨단 활성화 함수보다 GoLU의 우수한 성능을 보여줍니다. GoLU는 ReLU의 단점인 '죽은 뉴런 문제'를 완화하는 LeakyReLU, PReLU, ELU 등의 개선된 활성화 함수와 자가 게이트 활성화 함수인 GELU, Swish에 대한 강력한 대안으로 제시됩니다.