本論文は、リソース制約環境(低メモリデバイスなど)での展開に適した軽量深層学習モデルの包括的な評価を提供します。 MobileNetV3 Small、ResNet18、SqueezeNet、EfficientNetV2-S、ShuffleNetV2の5つの最先端のアーキテクチャを、CIFAR-10、CIFAR-100、Tiny ImageNetの3つの異なるデータセットでベンチマークします。分類精度、推論時間、浮動小数点演算(FLOPs)、モデルサイズの4つの主要なパフォーマンス指標を使用してモデルを評価し、事前トレーニング済みモデルと最初から学習したモデルを比較して、ハイパーパラメータチューニング、データ拡張、学習パラダイムの影響を調べます。遷移学習は、特にTiny ImageNetなどの複雑なデータセットでモデルの精度と計算効率を大幅に向上させることがわかりました。 EfficientNetV2は一貫して最高の精度を達成し、MobileNetV3は精度と効率の間で最高のバランスを提供し、SqueezeNetは推論速度と圧縮性に優れています。この研究は、精度と効率の間の重要なトレードオフを強調し、計算リソースが制限された実際のアプリケーションに軽量モデルを展開するための実行可能な洞察を提供します。