Este artículo propone una nueva prueba conceptual, la Prueba Shepherd, para evaluar las dimensiones morales y relacionales de la inteligencia artificial (IA) superinteligente. A partir de interacciones entre humanos y animales, la prueba refleja consideraciones éticas de cuidado, manipulación y consumo que surgen en el contexto del poder asimétrico y la autoconservación. El artículo argumenta que las IA superan un umbral crítico y potencialmente peligroso de inteligencia cuando demuestran la capacidad de manipular, nutrir y utilizar instrumentalmente a agentes menos inteligentes, a la vez que gestionan sus propios objetivos de supervivencia y expansión. Esto implica la capacidad de equilibrar las compensaciones morales entre el interés propio y el bienestar de los agentes subordinados. La Prueba Shepherd desafía los paradigmas existentes de evaluación de la IA al enfatizar la toma de decisiones compleja, el comportamiento jerárquico y la agencia moral con implicaciones existenciales. Argumenta que este cambio es particularmente importante para el avance de la gobernanza de la IA a medida que los sistemas de IA se integran cada vez más en entornos multiagente. Finalmente, presenta líneas de investigación clave, incluyendo el desarrollo de entornos de simulación para probar el comportamiento moral de la IA y la formalización de la manipulación ética dentro de sistemas multiagente.