본 논문은 딥러닝을 활용한 EEG 신호 기반 감정 인식 연구에 초점을 맞추고 있으며, 데이터셋 간의 이질성으로 인한 일반화 성능 저하 문제를 해결하고자 합니다. 이를 위해, 감정 라벨을 Valence-Arousal (V-A) 공간에 통합하고, V-A를 활용한 Contrastive Learning을 통해 다양한 데이터셋에서 전이 가능한 감정 표현 학습을 제안합니다. 또한, 유연한 Triple-Domain Encoder와 Spatial-Temporal Transformer 기반 백본을 사용하여 다양한 EEG 형식에 적응합니다. 제안하는 EMOD 프레임워크는 8개의 공개 EEG 데이터셋으로 사전 훈련되었으며, 세 개의 벤치마크 데이터셋에서 최고 성능을 달성했습니다.