본 논문은 미묘한 차이를 가진 세밀한 음식 이미지 분류의 어려움을 해결하기 위해, TResNet 모델에 Style-based Recalibration Module (StyleRM)과 Deep Channel-wise Attention (DCA) 기술을 통합한 새로운 방법인 Feature-Enhanced TResNet (FE-TResNet)을 제안합니다. FE-TResNet은 중국 음식 이미지 데이터셋인 ChineseFoodNet과 CNFOOD-241에서 각각 81.37%와 80.29%의 분류 정확도를 달성하여, 기존 CNN 모델보다 우수한 성능을 보였습니다. 이는 음식 이미지가 문화적 유산과 정서적 유대감을 전달하는 중요한 매개체임을 고려할 때, 다양한 응용 분야에서 중요한 의미를 가집니다.