Maximizing Asynchronicity in Event-based Neural Networks
Created by
Haebom
저자
Haiqing Hao, Nikola Zubic, Weihua He, Zhipeng Sui, Davide Scaramuzza, Wenhui Wang
개요
이 논문은 이벤트 카메라의 비동기적이고 희소한 데이터 특성을 극복하기 위해 새로운 비동기-동기 변환(A2S) 프레임워크인 EVA(EVent Asynchronous representation learning)를 제안합니다. EVA는 이벤트와 언어의 유사성에 착안하여 선형 어텐션과 자기 지도 학습을 활용하여 이벤트별로 표현력이 높고 일반화 가능한 표현을 생성합니다. 기존 A2S 방법들보다 우수한 성능을 인식(DVS128-Gesture, N-Cars) 및 탐지(Gen1) 작업에서 보여주며, 특히 Gen1 데이터셋에서 47.7 mAP라는 뛰어난 탐지 성능을 달성합니다. 이는 실시간 이벤트 기반 비전 애플리케이션 발전에 기여할 잠재력을 보여줍니다.