본 논문은 감정 컴퓨팅 분야에서 기존의 심층 학습 기반 감정 생성 방법의 복잡성과 해석의 어려움, 대규모 감정 데이터셋 구축의 어려움을 해결하기 위해 새로운 프레임워크인 AVF-BEL(Audio-Visual Fusion for Brain-like Emotion Learning)을 제안합니다. AVF-BEL은 뇌의 시각, 청각, 감정 경로를 모방하여 시각 및 청각 정보의 감정 특징 융합을 최적화하고 기존의 BEL(Brain Emotional Learning) 모델을 개선한 경량화되고 해석 가능한 감정 학습 및 생성 프로세스를 제공합니다. 실험 결과, AVF-BEL은 단일 모달리티 모델보다 감정 생성의 유사도가 크게 향상됨을 보여주며, 시각 및 청각 자극의 통합 효과에 따른 감정 생성 증가 현상을 반영합니다. 이는 감정 지능의 해석성과 효율성을 높이고 감정 컴퓨팅 기술 발전에 새로운 통찰력을 제공합니다. 소스 코드는 GitHub에서 공개됩니다.