본 논문은 자기 지도 대조 학습의 작동 원리에 대한 연구를 제시합니다. 조건부 독립 가정을 기반으로 가장 엄밀한 경계를 제공하고, 더 나아가 증강 중첩이라는 실질적인 가정을 도입하여 다운스트림 성능에 대한 점근적으로 닫힌 경계를 도출합니다. 제안된 증강 중첩 이론은 공격적인 데이터 증강 하에서 동일 클래스 내 샘플들의 지지 영역이 더 많이 겹치게 되며, 긍정 샘플(동일 샘플의 증강된 뷰)을 단순히 정렬하는 것만으로 대조 학습이 동일 클래스 샘플들을 함께 클러스터링할 수 있다는 통찰력에 기반합니다. 또한, 증강 중첩 관점에서 대조 학습의 표현 평가를 위한 비지도 메트릭을 개발했으며, 이는 추가 모듈에 거의 의존하지 않고도 다운스트림 성능과 잘 일치합니다.