Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Synaptic Pruning: A Biological Inspiration for Deep Learning Regularization

Created by
  • Haebom

저자

Gideon Vos, Liza van Eijk, Zoltan Sarnyai, Mostafa Rahimi Azghadi

개요

생물학적 뇌의 시냅스 가지치기에서 영감을 얻어, 훈련 중 중요도가 낮은 연결을 점진적으로 제거하는 크기 기반 시냅스 가지치기 방법을 제안합니다. RNN, LSTM, Patch Time Series Transformer 등 다양한 시계열 예측 모델에 적용하여 dropout을 대체하며, 훈련 루프에 직접 통합됩니다. 가중치 중요도는 절대 크기를 기준으로 계산되며, 큐빅 스케줄을 사용하여 전역 희소성을 점진적으로 증가시킵니다. 주기적으로 중요도가 낮은 가중치를 영구적으로 제거하고, 활성화된 가중치에 대한 기울기 흐름을 유지하여 별도의 가지치기 및 미세 조정 단계가 필요하지 않습니다.

시사점, 한계점

시사점:
생물학적 시냅스 가지치기를 모방하여 효율성을 향상시킨 새로운 정규화 기법 제안
dropout을 대체하여 다양한 시계열 예측 모델에서 성능 향상
금융 예측에서 최대 20%의 MAE 감소, 일부 Transformer 모델에서 최대 52% 감소
훈련 루프에 직접 통합되어 사용 편의성 제공
별도의 가지치기 및 미세 조정 단계 불필요
한계점:
구체적인 모델 아키텍처나 데이터셋의 특성에 따라 성능 편차가 있을 수 있음
일반화 성능에 대한 추가적인 연구 필요
생물학적 뇌의 가지치기를 완벽하게 모방하지 못함 (예: 활동 의존적 가지치기)
👍