Además de estudiar el sesgo de representación humana en modelos de generación de texto a imagen, este artículo investiga los sesgos demográficos en los propios objetos (p. ej., automóviles). Presentamos un novedoso marco, la Auditoría Diagnóstica de Objetos Estereotipados (SODA), que genera 2700 imágenes de cinco categorías de objetos utilizando tres modelos de vanguardia (GPT Imagen-1, Imagen 4 y Difusión Estable) y compara los resultados de la generación utilizando claves demográficas (p. ej., "para jóvenes") con los generados mediante indicaciones neutrales. Nuestro análisis revela fuertes asociaciones entre grupos demográficos específicos y atributos visuales (p. ej., patrones de color recurrentes desencadenados por claves de género o etnia). Estos patrones reflejan y refuerzan no solo estereotipos conocidos, sino también sesgos más sutiles y contraintuitivos. Además, observamos que algunos modelos producen resultados con baja diversidad, lo que amplifica las diferencias visuales en comparación con las indicaciones neutrales. El marco de auditoría propuesto proporciona una forma práctica de descubrir los sesgos aún inherentes a los modelos generativos actuales y los presenta como un paso esencial hacia un desarrollo de IA más sistemático y responsable.