Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Comparative Analysis of Lightweight Deep Learning Models for Memory-Constrained Devices

Created by
  • Haebom

저자

Tasnim Shahriar

개요

본 논문은 자원 제약 환경(저 메모리 장치 등)에서의 배포에 적합한 경량 심층 학습 모델에 대한 종합적인 평가를 제시합니다. MobileNetV3 Small, ResNet18, SqueezeNet, EfficientNetV2-S, ShuffleNetV2의 5가지 최첨단 아키텍처를 CIFAR-10, CIFAR-100, Tiny ImageNet의 세 가지 다양한 데이터셋에서 벤치마킹합니다. 분류 정확도, 추론 시간, 부동 소수점 연산(FLOPs), 모델 크기의 네 가지 주요 성능 지표를 사용하여 모델을 평가하고, 사전 훈련된 모델과 처음부터 학습된 모델을 비교하여 하이퍼파라미터 튜닝, 데이터 증강, 학습 패러다임의 영향을 조사합니다. 전이 학습이 특히 Tiny ImageNet과 같은 복잡한 데이터셋에서 모델 정확도와 계산 효율을 크게 향상시킨다는 것을 발견했습니다. EfficientNetV2는 일관되게 가장 높은 정확도를 달성했고, MobileNetV3는 정확도와 효율성 사이에서 최상의 균형을 제공했으며, SqueezeNet은 추론 속도와 압축성이 뛰어났습니다. 이 연구는 정확도와 효율성 사이의 중요한 트레이드오프를 강조하여 계산 자원이 제한된 실제 애플리케이션에서 경량 모델을 배포하기 위한 실행 가능한 통찰력을 제공합니다.

시사점, 한계점

시사점:
전이 학습은 특히 복잡한 데이터셋에서 경량 모델의 정확도와 효율성을 향상시킨다.
EfficientNetV2는 높은 정확도를, MobileNetV3는 정확도와 효율성의 균형을, SqueezeNet은 빠른 추론 속도와 작은 크기를 제공한다.
제한된 자원 환경에서의 경량 모델 배포를 위한 실행 가능한 지침을 제공한다.
에지 컴퓨팅 및 모바일 플랫폼을 위한 심층 학습 시스템 최적화에 기여한다.
한계점:
평가에 사용된 데이터셋의 수와 종류가 제한적일 수 있다.
더욱 다양한 하이퍼파라미터 조합과 학습 전략에 대한 탐색이 필요할 수 있다.
실제 애플리케이션 환경에서의 성능 평가가 부족할 수 있다.
👍