Bài báo này trình bày một đánh giá toàn diện về các mô hình học sâu nhẹ phù hợp để triển khai trong các môi trường hạn chế về tài nguyên (ví dụ: các thiết bị có bộ nhớ thấp). Chúng tôi đánh giá chuẩn năm kiến trúc tiên tiến—MobileNetV3 Small, ResNet18, SqueezeNet, EfficientNetV2-S và ShuffleNetV2—trên ba tập dữ liệu đa dạng: CIFAR-10, CIFAR-100 và Tiny ImageNet. Chúng tôi đánh giá các mô hình bằng bốn chỉ số hiệu suất chính: độ chính xác phân loại, thời gian suy luận, phép toán dấu phẩy động (FLOP) và kích thước mô hình. Chúng tôi so sánh các mô hình được đào tạo trước với các mô hình được đào tạo từ đầu để nghiên cứu tác động của việc điều chỉnh siêu tham số, tăng cường dữ liệu và các mô hình đào tạo. Chúng tôi thấy rằng học chuyển giao cải thiện đáng kể độ chính xác của mô hình và hiệu quả tính toán, đặc biệt là trên các tập dữ liệu phức tạp như Tiny ImageNet. EfficientNetV2 luôn đạt được độ chính xác cao nhất, MobileNetV3 mang lại sự cân bằng tốt nhất giữa độ chính xác và hiệu quả, và SqueezeNet vượt trội về tốc độ suy luận và tính gọn nhẹ. Nghiên cứu này nhấn mạnh sự đánh đổi quan trọng giữa độ chính xác và hiệu quả, cung cấp thông tin chi tiết thực tế để triển khai các mô hình nhẹ trong các ứng dụng thực tế với nguồn lực tính toán hạn chế.