본 논문은 음성 파일의 멜 스펙트로그램 표현을 통해 음성의 감정을 분류하기 위한 합성곱 신경망(CNN)의 적용을 탐구합니다. 가우시안 혼합 모델 및 은닉 마르코프 모델과 같은 기존 방법은 실제 배포에는 부적절하다는 것이 입증되어 심층 학습 기법으로의 전환을 촉구했습니다. 오디오 데이터를 시각적 형식으로 변환함으로써 CNN 모델은 복잡한 패턴을 자율적으로 학습하여 분류 정확도를 향상시킵니다. 개발된 모델은 사용자 친화적인 그래픽 인터페이스에 통합되어 실시간 예측 및 교육 환경에서의 잠재적 응용을 가능하게 합니다. 이 연구는 음성 감정 인식에서 심층 학습에 대한 이해를 높이고, 모델의 실현 가능성을 평가하며, 학습 환경에서 기술 통합에 기여하는 것을 목표로 합니다.