Este artículo aborda el fenómeno de las redes neuronales profundas (DNN) que presentan sesgos hacia ciertas categorías en el reconocimiento de objetos, a pesar de contar con datos de entrenamiento equilibrados. Para dilucidar el mecanismo subyacente de estos sesgos, proponemos un marco de análisis geométrico que vincula la complejidad geométrica de las variedades perceptuales específicas de cada clase en las DNN con los sesgos del modelo, inspirado en la forma en que los sistemas visuales humanos logran el reconocimiento de objetos separando las variedades de objetos mediante el procesamiento jerárquico. Nuestros resultados muestran que las diferencias en la complejidad geométrica pueden generar diferencias en la capacidad de reconocimiento entre categorías, lo que a su vez puede generar sesgos. Para respaldar este análisis, presentamos la biblioteca Perceptual-Manifold-Geometry, diseñada para calcular las propiedades geométricas de las variedades perceptuales.