본 논문은 딥러닝을 활용한 EEG 신호 기반 감정 인식 분야에서 데이터셋 간의 일반화 문제를 해결하기 위해, Valence-Arousal (V-A) 기반 대조 학습을 활용한 통합 EEG 감정 표현 프레임워크인 EMOD를 제안한다. EMOD는 다양한 감정 라벨 간의 의미적 및 구조적 격차를 해소하여 이기종 데이터셋으로부터 전이 가능한 감정 인식 표현을 학습한다. 구체적으로, 이산적 및 연속적 감정 라벨을 통합된 V-A 공간에 투영하고, 감정적으로 유사한 샘플이 잠재 공간에서 클러스터링되도록 부드럽게 가중된 지도 대조 손실을 사용한다. 또한, 가변적인 EEG 형식에 적응하기 위해 Triple-Domain Encoder와 Spatial-Temporal Transformer를 포함하는 유연한 백본을 활용하여 시계열, 스펙트럼, 공간적 특징을 효과적으로 추출하고 통합한다. EMOD는 8개의 공개 EEG 데이터셋으로 사전 학습되었으며, 3개의 벤치마크 데이터셋에서 최고 성능을 달성하여 다양한 EEG 기반 감정 인식 시나리오에서 강력한 적응성과 일반화 능력을 입증했다.