# It's Not a Lottery, It's a Race: Understanding How Gradient Descent Adapts the Network's Capacity to the Task

### 저자

Hannah Pinson

### 💡 개요

본 논문은 신경망 학습 과정에서 이론적 용량이 과제에 적합한 유효 용량으로 어떻게 감소하는지, 특히 경사하강법이 이를 어떻게 달성하는지를 개별 뉴런 수준에서 분석합니다. 이를 위해 상호 정렬(mutual alignment), 잠금 해제(unlocking), 경쟁(racing)이라는 세 가지 동적 원리를 제시하며, 이 원리들이 훈련 후 뉴런 병합이나 저차원 가중치 가지치기를 통해 용량을 효과적으로 줄이는 메커니즘을 설명합니다. 나아가, 복권 티켓 가설(lottery ticket hypothesis)의 근간이 되는, 일부 뉴런이 더 높은 가중치 규범(weight norm)을 얻게 되는 특정 유리한 초기 조건의 이유를 밝힙니다.

### 🔑 시사점 및 한계

- 경사하강법이 신경망의 학습 동력을 통해 이론적 용량을 실제 과제에 맞게 동적으로 조절하는 메커니즘을 개별 뉴런 수준에서 규명했습니다.

- 상호 정렬, 잠금 해제, 경쟁이라는 세 가지 동적 원리가 뉴런 병합 및 가지치기를 통한 신경망 용량 감소에 기여함을 이론적으로 제시했습니다.

- 복권 티켓 가설의 일부를 설명하며, 특정 초기 조건이 유리한 뉴런의 가중치 규범 증가 메커니즘을 이론적으로 뒷받침합니다.

- 본 연구는 단일 은닉층 ReLU 신경망을 대상으로 하였으므로, 더 복잡한 신경망 구조나 활성화 함수에 대한 일반화는 추가적인 연구가 필요합니다.

[PDF 보기](https://arxiv.org/pdf/2602.04832)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
