본 논문은 초지능 인공지능(AI)의 도덕적, 관계적 차원을 평가하기 위한 새로운 개념적 테스트인 'Shepherd Test'를 제안한다. 인간과 동물 간의 상호작용에서 비롯된 이 테스트는 비대칭적 권력과 자기 보존의 맥락에서 발생하는 돌봄, 조작, 소비에 대한 윤리적 고려 사항을 반영한다. 논문은 AI가 덜 지능적인 에이전트를 조작하고, 양육하며, 도구적으로 사용하는 능력을 보이고, 동시에 자신의 생존과 확장 목표를 관리할 때 중요하고 잠재적으로 위험한 지능의 문턱을 넘는다고 주장한다. 이는 자기 이익과 하위 에이전트의 안녕 사이의 도덕적 절충을 저울질하는 능력을 포함한다. Shepherd Test는 존재적 위험이 걸린 복잡한 의사결정, 계층적 행동, 도덕적 행위자를 강조함으로써 기존의 AI 평가 패러다임에 도전한다. 이러한 변화는 특히 AI 시스템이 다중 에이전트 환경에 점점 더 통합됨에 따라 AI 거버넌스를 발전시키는 데 중요하다고 주장한다. 마지막으로 AI의 도덕적 행동을 테스트하기 위한 시뮬레이션 환경 개발 및 다중 에이전트 시스템 내의 윤리적 조작의 공식화를 포함한 핵심 연구 방향을 제시한다.