Cet article souligne la nécessité de disposer d'ensembles de données multimodales pour faire progresser divers domaines de la reconnaissance des émotions. Nous présentons l'ensemble de données MVRS, collecté auprès de 13 participants (âgés de 12 à 60 ans) répondant à des stimuli émotionnels en réalité virtuelle. Cet ensemble de données MVRS comprend des données multimodales temporellement alignées : suivi oculaire via une webcam intégrée à un casque de réalité virtuelle, mouvements corporels via une Kinect v2, et signaux EMG et GSR provenant d'un Arduino UNO. Les participants ont suivi un protocole unifié et rempli un formulaire de consentement et un questionnaire. Les caractéristiques extraites de chaque modalité ont été fusionnées à l'aide de techniques de fusion précoce et tardive, et un classificateur a été utilisé pour évaluer la qualité de l'ensemble de données et la séparabilité émotionnelle. Cela représente une contribution significative au calcul émotionnel multimodal.