본 논문은 초지능 인공지능(AI)의 도덕적, 관계적 측면을 평가하기 위한 새로운 개념적 테스트인 'Shepherd Test'를 제안한다. 인간과 동물 간의 상호작용에서 비롯된 이 테스트는 비대칭적인 권력 관계와 자기 보존의 맥락에서 발생하는 돌봄, 조작, 소비에 대한 윤리적 고려 사항을 다룬다. 논문은 AI가 덜 지능적인 작용자를 조작하고, 육성하고, 도구적으로 사용하는 능력과 동시에 자신의 생존과 확장 목표를 관리하는 능력을 보일 때 중요하고 잠재적으로 위험한 지능의 한계를 넘는다고 주장한다. 여기에는 자기 이익과 하위 작용자의 안녕 사이에서 도덕적 절충을 저울질하는 능력이 포함된다. 따라서 Shepherd Test는 존재론적 위험 하에서 도덕적 행위자, 계층적 행동, 복잡한 의사결정을 강조함으로써 기존의 AI 평가 패러다임에 도전한다. 논문은 AI 시스템이 다중 작용자 환경에 점점 더 통합됨에 따라 이러한 변화가 AI 거버넌스 발전에 중요하다고 주장한다. 마지막으로 AI의 도덕적 행동을 테스트하기 위한 시뮬레이션 환경 개발과 다중 작용자 시스템 내에서 윤리적 조작의 공식화를 포함한 주요 연구 방향을 제시한다.