Pour relever le défi de la classification fine des images alimentaires présentant des différences subtiles, cet article propose un nouveau TResNet à fonctionnalités améliorées (FE-TResNet), qui intègre les techniques Style-based Recalibration Module (StyleRM) et Deep Channel-wise Attention (DCA) au modèle TResNet. FE-TResNet atteint des précisions de classification de 81,37 % et 80,29 % sur les jeux de données d'images alimentaires chinoises ChineseFoodNet et CNFOOD-241, respectivement, surpassant les modèles CNN conventionnels. Considérant que les images alimentaires sont un support important pour transmettre le patrimoine culturel et les liens émotionnels, cela a des implications importantes dans divers domaines d'application.