En este artículo, proponemos un novedoso modelo de aprendizaje profundo, FE-TResNet, para distinguir alimentos similares con sutiles diferencias visuales, con el objetivo de lograr una clasificación precisa de imágenes de alimentos para la gestión nutricional de precisión. FE-TResNet integra el Módulo de Recalibración Basado en Estilos (StyleRM) y la Atención Profunda por Canal (DCA) en la arquitectura TResNet para optimizar la extracción de características y destacar las sutiles diferencias entre alimentos. Los resultados de la evaluación en los conjuntos de datos de alimentos chinos ChineseFoodNet y CNFOOD-241 alcanzan altas precisiones de clasificación del 81,37 % y el 80,29 %, respectivamente, lo que demuestra su potencial como tecnología clave para la evaluación inteligente de dietas y las recomendaciones personalizadas en sistemas de nutrición de precisión.