[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Self-cross Feature based Spiking Neural Networks for Efficient Few-shot Learning

Created by
  • Haebom

저자

Qi Xu, Junyang Zhu, Dongdong Zhou, Hao Chen, Yang Liu, Jiangrong Shen, Qiang Zhang

개요

본 논문은 제한된 예시로부터 일반화하는 것이 점점 중요해지는 컴퓨터 비전 과제, 특히 몇 샷 학습(FSL)에서 뛰어난 성능을 보이는 심층 신경망(DNN)의 계산 비용 및 확장성 문제를 해결하기 위해 제안되었다. 에너지 소비가 적고 이벤트 기반 특성을 지닌 스파이킹 신경망(SNN)은 희소하고 역동적인 데이터 처리에 효율적이지만, 복잡한 시공간적 특징을 포착하고 정확한 클래스 간 비교를 수행하는 데 어려움을 겪는다. 이를 해결하기 위해, 본 논문에서는 자기 특징 추출 모듈과 교차 특징 대조 모듈을 결합하여 특징 표현을 개선하고 전력 소비를 줄이는 SNN 기반의 몇 샷 학습 프레임워크를 제안한다. 시간 효율적인 훈련 손실과 InfoNCE 손실을 결합하여 스파이크 열차의 시간 역학을 최적화하고 판별력을 향상시킨다. 실험 결과, 제안된 FSL-SNN은 뉴로모픽 데이터셋 N-Omniglot에서 분류 성능을 크게 향상시켰으며, CUB 및 miniImageNet과 같은 정적 데이터셋에서도 낮은 전력 소비로 ANN과 경쟁력 있는 성능을 달성했다.

시사점, 한계점

시사점:
SNN을 이용한 효율적인 몇 샷 학습 프레임워크 제시
자기 특징 추출 모듈과 교차 특징 대조 모듈을 통한 특징 표현 개선 및 전력 소비 감소
시간 효율적인 훈련 손실과 InfoNCE 손실을 통한 스파이크 열차의 시간 역학 최적화 및 판별력 향상
뉴로모픽 및 정적 데이터셋에서 우수한 성능 검증
한계점:
제안된 프레임워크의 일반화 성능에 대한 추가적인 연구 필요
다양한 데이터셋 및 과제에 대한 추가적인 실험 필요
SNN의 복잡성 및 훈련 과정의 어려움에 대한 추가적인 고찰 필요
👍