Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Toward Improving fNIRS Classification: A Study on Activation Functions in Deep Neural Architectures

Created by
  • Haebom

저자

Behtom Adeli, John McLinden, Pankaj Pandey, Ming Shao, Yalda Shahriari

개요

본 논문은 기능적 근적외선 분광법(fNIRS) 데이터를 이용한 심층 학습(DL)에서 활성화 함수의 영향을 체계적으로 조사한 연구입니다. 비선형성, 낮은 신호대잡음비(SNR), 신호 변동성 등 fNIRS 데이터의 특성으로 인해 활성화 함수의 선택이 모델 정확도에 큰 영향을 미치지만, 이에 대한 연구는 부족한 실정입니다. 본 연구는 fNIRSNet, AbsoluteNet, MDNN, shallowConvNet 등 다양한 심층 학습 아키텍처와 다양한 활성화 함수(ReLU, Tanh, Abs(x), 수정된 절댓값 함수(MAF) 등)를 사용하여 청각 과제 수행 중 녹음된 단일 데이터셋을 기반으로 fNIRS 분류 작업을 수행했습니다. 실험 결과, Tanh와 Abs(x)와 같은 대칭 활성화 함수가 ReLU와 같은 일반적으로 사용되는 함수보다 아키텍처에 따라 성능이 우수할 수 있음을 보였으며, MAF를 이용한 대칭성 분석을 통해 대칭 활성화 함수의 효과를 추가적으로 확인했습니다. 이는 fNIRS 데이터의 신호 특성에 맞는 적절한 활성화 함수 선택의 중요성을 강조합니다.

시사점, 한계점

시사점:
fNIRS 기반 심층 학습 모델의 성능 향상을 위해 대칭 활성화 함수(Tanh, Abs(x) 등)의 사용을 고려해야 함을 제시합니다.
fNIRS 데이터의 특성에 맞는 활성화 함수 선택의 중요성을 강조합니다.
다양한 아키텍처에서 활성화 함수의 영향을 비교 분석하여 실질적인 가이드라인을 제공합니다.
한계점:
단일 데이터셋을 사용하여 일반화 가능성이 제한적일 수 있습니다.
다양한 fNIRS 과제 및 데이터셋에 대한 추가적인 연구가 필요합니다.
활성화 함수의 선택 기준에 대한 보다 명확한 지침이 부족합니다. (어떤 상황에서 어떤 활성화 함수를 선택해야 하는지에 대한 구체적인 가이드라인이 필요)
👍