본 논문은 비지도 도메인 적응(UDA) 기반의 사람 재식별(ReID) 문제를 해결하기 위한 새로운 프레임워크인 CORE-ReID(Comprehensive Optimization and Refinement through Ensemble Fusion in Domain Adaptation for Person Re-identification)를 제안합니다. CORE-ReID는 사전 훈련 단계에서 CycleGAN을 이용하여 다양한 데이터를 생성하여 서로 다른 카메라 소스의 이미지 특징 차이를 조화시키고, 미세 조정 단계에서는 교사-학생 네트워크 쌍을 기반으로 다중 뷰 특징을 활용한 다중 수준 클러스터링을 통해 다양한 의사 레이블을 도출합니다. 또한, 전역 특징 내의 세분화된 지역 정보에 집중하는 학습 가능한 앙상블 융합 구성 요소를 도입하여 학습의 포괄성을 높이고 여러 의사 레이블과 관련된 모호성을 피합니다. ResNet 기반 모델을 사용하여 효율적인 채널 어텐션 블록과 양방향 평균 특징 정규화를 추가적으로 적용하여 편차 효과를 완화하고 전역 및 지역 특징의 적응적 융합을 수행합니다. 세 개의 일반적인 UDA 기반 사람 재식별 데이터셋에서 기존 최고 성능의 방법보다 상당한 성능 향상을 보였으며, 평균 정밀도(mAP), Top-1, Top-5, Top-10 지표에서 높은 정확도를 달성했습니다. 소스 코드와 모델은 깃허브에 공개되어 있습니다.