본 논문은 딥 메트릭 러닝에서 널리 사용되는 Contrastive loss와 Triplet loss의 표현 품질에 미치는 영향을 이론적 및 경험적으로 비교한다. Intra-class 및 inter-class 분산, 최적화 동작(예: 탐욕적인 업데이트)에 중점을 두고, 합성 데이터와 MNIST, CIFAR-10과 같은 실제 데이터셋을 사용하여 태스크별 실험을 수행하였다. Triplet loss가 클래스 내 및 클래스 간 더 큰 분산을 유지하여 미세한 세분화된 구별을 지원하는 반면, Contrastive loss는 intra-class 임베딩을 압축하여 미묘한 의미적 차이를 모호하게 만드는 경향이 있음을 밝혀냈다. 또한, loss-decay rate, active ratio, gradient norm을 분석하여 Contrastive loss는 초기에 많은 작은 업데이트를 유도하고, Triplet loss는 어려운 예제에 대한 학습을 지속하는 더 적지만 강력한 업데이트를 생성함을 확인했다. MNIST, CIFAR-10, CUB-200, CARS196 데이터셋에서 분류 및 검색 태스크를 수행한 결과, Triplet loss가 더 우수한 성능을 보였다.