Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

EPAM-Net: An Efficient Pose-driven Attention-guided Multimodal Network for Video Action Recognition

Created by
  • Haebom
Category
Empty

저자

Ahmed Abdelkawy, Asem Ali, Aly Farag

개요

본 논문은 실시간 응용에 적합하도록 계산 비용을 줄인 새로운 효율적인 자세 기반 주의력 유도 다중 모드 네트워크(EPAM-Net)를 제시합니다. RGB 비디오와 골격 시퀀스로부터 시공간적 특징을 추출하기 위해 X-ShiftNet이라는 효율적인 2D CNN 아키텍처를 RGB 및 자세 스트림에 적용합니다. Temporal Shift Module (TSM)을 통합하여 3D CNN의 높은 계산 비용 문제를 해결하고, 골격 특징을 활용하여 시공간적 어텐션 블록을 통해 주요 프레임과 중요 공간 영역에 집중하도록 시각 네트워크 스트림을 안내합니다. 마지막으로 두 스트림의 예측 결과를 융합하여 최종 분류를 수행합니다. 실험 결과, 제안된 방법은 FLOPs와 네트워크 파라미터 수를 크게 줄이면서 NTU RGB-D 60, NTU RGB-D 120, PKU-MMD, Toyota SmartHome 데이터셋에서 최첨단 성능을 달성하거나 경쟁력을 갖추었습니다.

시사점, 한계점

시사점:
기존 다중 모드 기반 동작 인식 방법의 계산 비용 문제를 효과적으로 해결했습니다.
FLOPs 및 네트워크 파라미터 수를 최대 72.8배 및 48.6배까지 감소시키면서 최첨단 성능을 달성했습니다.
실시간 동작 인식 응용 분야에 적용 가능성을 높였습니다.
공개된 코드를 통해 재현성을 확보했습니다.
한계점:
제안된 방법의 성능이 특정 데이터셋에 편향될 가능성이 있습니다.
다양한 조명 조건이나 배경 환경에 대한 성능 평가가 부족할 수 있습니다.
더욱 복잡하고 다양한 동작에 대한 일반화 성능 평가가 필요합니다.
👍