본 논문은 자기 지도 학습에서 Siamese network의 변환 불변성 학습 능력과, 이 네트워크가 퇴화된 해로 수렴하는 문제점을 다룹니다. 기존 contrastive learning의 negative sampling 기반 접근 방식의 취약점을 지적하며, negative pair를 사용하지 않는 positive-only 알고리즘에 초점을 맞춥니다. 비대칭 네트워크 구조를 활용하여 contrastive learning의 아이디어를 암묵적으로 통합하는 새로운 방법론인 guided stop-gradient (GSG)를 제안합니다. SimSiam과 BYOL 알고리즘에 GSG를 적용하여 안정적인 학습 및 성능 향상을 보였으며, 작은 배치 크기에서도 잘 작동하고 예측기 없이도 퇴화되지 않음을 실험적으로 증명합니다.