Este artículo compara teórica y empíricamente la calidad representacional de la pérdida contrastiva y la pérdida de tripletes, ampliamente utilizadas en el aprendizaje métrico profundo. Centrándonos en la varianza intraclase e interclase y el comportamiento de optimización (p. ej., actualización voraz), realizamos experimentos específicos para cada tarea con datos sintéticos y conjuntos de datos reales como MNIST y CIFAR-10. Observamos que la pérdida de tripletes mantiene una mayor varianza intraclase e interclase, lo que facilita distinciones de grano fino. La pérdida contrastiva, por otro lado, tiende a comprimir las incrustaciones intraclase, ocultando diferencias semánticas sutiles. Además, al analizar la tasa de pérdida-decaimiento, la razón de actividad y la norma de gradiente, demostramos que la pérdida contrastiva induce muchas actualizaciones iniciales pequeñas, mientras que la pérdida de tripletes genera menos actualizaciones, pero más robustas, que facilitan el aprendizaje en ejemplos complejos. Los resultados de las tareas de clasificación y recuperación en los conjuntos de datos MNIST, CIFAR-10, CUB-200 y CARS196 muestran que la pérdida de tripletes supera.