본 논문은 감정 라벨 정보를 활용하여 다중 모달 감정 인식(MER)의 정확도와 안정성을 향상시키는 새로운 모델인 LSGMER(Label Signal-Guided Multimodal Emotion Recognition)을 제안합니다. 기존 연구들이 오디오 및 텍스트 피처의 융합에만 집중하여 감정 라벨 정보를 간과한 점을 지적하며, 감정 라벨이 풍부한 정보를 포함하고 있음을 강조합니다. LSGMER은 라벨 신호 강화 모듈을 통해 라벨 임베딩과 오디오 및 텍스트 피처 간의 상호작용을 최적화하여 감정의 미묘한 차이를 정확하게 포착하고, 공동 목적 최적화(JOO) 접근 방식과 속성-예측 일관성 제약(APC)을 도입하여 융합된 피처와 감정 범주 간의 정렬을 강화함으로써 분류 정확도를 향상시킵니다. IEMOCAP 및 MELD 데이터셋을 사용한 실험을 통해 LSGMER 모델의 효과를 입증하였습니다.