본 논문은 최근 발전하고 있는 음악에 대한 딥러닝 모델이 감정을 얼마나 잘 포착하는지, 그리고 연구자들이 어떤 어려움에 직면하는지에 대한 종합적인 개요를 제공합니다. 음악 감정 데이터셋, 평가 기준, 대회를 논의하고, 다양한 음악 감정 예측 모델을 간략하게 소개하며, 다양한 접근 방식에 대한 통찰력을 제공합니다. 데이터셋 품질, 주석 일관성, 모델 일반화와 관련된 문제를 포함하여 음악에서 감정을 정확하게 포착하는 데 지속되는 과제를 강조합니다. 또한 오디오, MIDI, 생리 신호와 같은 다양한 모드가 감정 예측 모델의 효과에 미치는 영향을 탐구하고, 데이터셋 품질, 감정 라벨의 모호성, 데이터셋 간 일반화의 어려움을 포함한 음악 감정 인식(MER)의 지속적인 과제를 확인합니다. 표준화된 벤치마크, 더 크고 다양한 데이터셋, 향상된 모델 해석성이 MER의 미래 발전에 필요하다고 주장하며, 음악 감정 데이터셋과 최근 예측 모델 목록을 포함하는 GitHub 저장소를 함께 제공합니다.