본 논문은 자원 제약 환경(저 메모리 장치 등)에서의 배포에 적합한 경량 심층 학습 모델에 대한 종합적인 평가를 제시합니다. MobileNetV3 Small, ResNet18, SqueezeNet, EfficientNetV2-S, ShuffleNetV2의 5가지 최첨단 아키텍처를 CIFAR-10, CIFAR-100, Tiny ImageNet의 세 가지 다양한 데이터셋에서 벤치마킹합니다. 분류 정확도, 추론 시간, 부동 소수점 연산(FLOPs), 모델 크기의 네 가지 주요 성능 지표를 사용하여 모델을 평가하고, 사전 훈련된 모델과 처음부터 학습된 모델을 비교하여 하이퍼파라미터 튜닝, 데이터 증강, 학습 패러다임의 영향을 조사합니다. 전이 학습이 특히 Tiny ImageNet과 같은 복잡한 데이터셋에서 모델 정확도와 계산 효율을 크게 향상시킨다는 것을 발견했습니다. EfficientNetV2는 일관되게 가장 높은 정확도를 달성했고, MobileNetV3는 정확도와 효율성 사이에서 최상의 균형을 제공했으며, SqueezeNet은 추론 속도와 압축성이 뛰어났습니다. 이 연구는 정확도와 효율성 사이의 중요한 트레이드오프를 강조하여 계산 자원이 제한된 실제 애플리케이션에서 경량 모델을 배포하기 위한 실행 가능한 통찰력을 제공합니다.