자율 주행, 지능형 교통 시스템, 도시 감시 시스템에서 신뢰할 수 있는 인식을 위해 저조도 교통 이미지 향상이 중요합니다. 야간 및 어두운 조명의 교통 장면은 조명 부족, 노이즈, 모션 블러, 불균일한 조명, 차량 헤드라이트나 가로등의 눈부심으로 인해 가시성이 떨어져 객체 감지 및 장면 이해와 같은 작업에 지장을 줍니다. 이러한 문제를 해결하기 위해, 본 논문은 저조도 교통 이미지 향상을 위한 완전 비지도 다단계 딥러닝 프레임워크를 제안합니다. 이 모델은 이미지를 조명 및 반사 구성 요소로 분해하고, 세 가지 특수 모듈에 의해 점진적으로 개선됩니다: (1) 전역 및 지역 밝기 보정을 위한 조명 적응; (2) 공간-채널 어텐션을 사용하여 노이즈 억제 및 구조적 세부 사항 복원을 위한 반사 복원; (3) 포화 영역 재구성 및 장면 휘도 균형 조정을 위한 과다 노출 보상. 네트워크는 자체 지도 재구성, 반사 평활성, 지각적 일관성, 도메인 인식 정규화 손실을 사용하여 훈련되며, 쌍을 이룬 정답 이미지가 필요하지 않습니다. 일반 및 교통 특정 데이터 세트에 대한 실험은 정량적 메트릭 (PSNR, SSIM, LPIPS, NIQE) 및 질적 시각적 품질 모두에서 최첨단 방법보다 우수한 성능을 보여줍니다. 본 연구 접근 방식은 가시성을 향상시키고, 구조를 보존하며, 실제 저조도 교통 시나리오에서 다운스트림 인식 신뢰성을 향상시킵니다.