Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Self-cross Feature based Spiking Neural Networks for Efficient Few-shot Learning

Created by
  • Haebom

저자

Qi Xu, Junyang Zhu, Dongdong Zhou, Hao Chen, Yang Liu, Jiangrong Shen, Qiang Zhang

개요

본 논문은 제한된 예시로부터 일반화하는 것이 점점 더 중요해지는 컴퓨터 비전 작업, 특히 몇 번의 학습(FSL)에서 뛰어난 성능을 보이는 심층 신경망(DNN)의 계산 비용과 확장성 문제를 해결하기 위해 제안되었다. 에너지 소모량이 적고 이벤트 기반의 특성을 가진 스파이킹 신경망(SNN)은 희소하고 동적인 데이터 처리에 효율적이지만, 복잡한 시공간적 특징을 포착하고 정확한 클래스 간 비교를 수행하는 데 어려움을 겪는다. 따라서 본 논문에서는 SNN 기반의 몇 번의 학습 프레임워크를 제안하여 자기 특징 추출 모듈과 교차 특징 대조 모듈을 결합하여 특징 표현을 개선하고 전력 소모를 줄였다. 시간 효율적인 훈련 손실과 InfoNCE 손실을 결합하여 스파이크 열차의 시간 역학을 최적화하고 판별력을 향상시켰다. 실험 결과, 제안된 FSL-SNN은 신경 형태 데이터 세트 N-Omniglot에서 분류 성능을 크게 향상시켰으며, CUB 및 miniImageNet과 같은 정적 데이터 세트에서도 낮은 전력 소모량으로 ANN과 경쟁력 있는 성능을 달성했다.

시사점, 한계점

시사점:
SNN을 이용한 효율적인 FSL 프레임워크 제시
자기 특징 추출 및 교차 특징 대조 모듈을 통한 특징 표현 개선 및 전력 소모 감소
시간 효율적인 훈련 손실과 InfoNCE 손실을 통한 스파이크 열차의 시간 역학 최적화 및 판별력 향상
N-Omniglot 데이터셋에서 향상된 성능, CUB 및 miniImageNet 데이터셋에서 ANN과 경쟁력 있는 성능 달성
저전력 소모를 통한 에너지 효율적인 FSL 구현 가능성 제시
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 연구 필요
다양한 데이터셋 및 FSL 작업에 대한 추가적인 실험 필요
SNN 구현의 복잡성 및 훈련 시간에 대한 추가적인 분석 필요
👍