On the Privacy Risks of Spiking Neural Networks: A Membership Inference Analysis
Created by
Haebom
Category
Empty
저자
Junyi Guan, Abhijith Sharma, Chong Tian, Salem Lahlou
개요
본 논문은 에너지 효율 및 실제 응용 분야에서의 강건성으로 인해 주목받고 있는 스파이킹 신경망(SNNs)의 개인 정보 보호 위험을 조사합니다. 특히, 훈련 데이터셋에 특정 샘플이 포함되었는지 여부를 판별하려는 공격자인 멤버십 추론 공격(MIAs)에 대한 SNNs의 취약성을 분석합니다. 기존 연구에서는 SNNs의 이산적이고 이벤트 기반의 특성으로 인해 고유한 강건성을 제공할 수 있다고 제시했지만, 본 논문에서는 지연 시간(T)이 증가함에 따라 SNNs의 복원력이 감소한다는 것을 발견했습니다. 또한, 블랙박스 설정에서 입력 드롭아웃 전략을 도입하여 SNNs에서 멤버십 추론을 크게 향상시켰습니다. 이러한 결과는 SNNs가 본질적으로 더 안전하다는 가정에 의문을 제기하며, 기대와 달리 SNNs가 인공 신경망(ANNs)과 동등한 수준의 개인 정보 보호 취약성을 나타낸다는 것을 보여줍니다. 코드는 https://anonymous.4open.science/r/MIA_SNN-3610 에서 확인할 수 있습니다.
시사점, 한계점
•
시사점: SNNs의 지연 시간 증가가 멤버십 추론 공격에 대한 취약성을 높인다는 것을 밝힘으로써, SNNs의 개인 정보 보호 위험에 대한 이해를 심화시켰습니다. 입력 드롭아웃 전략을 활용하여 SNNs의 멤버십 추론 공격 성공률을 높일 수 있음을 보여주었습니다. SNNs가 ANNs와 동등한 수준의 개인 정보 보호 위험을 가지고 있음을 시사합니다.
•
한계점: 본 연구는 특정 유형의 멤버십 추론 공격과 입력 드롭아웃 전략에 초점을 맞추었으며, 다른 유형의 공격이나 방어 전략에 대한 연구가 추가적으로 필요합니다. 다양한 SNN 아키텍처 및 응용 분야에 대한 일반화 가능성에 대한 추가 연구가 필요합니다.