본 논문은 인공지능(AI) 에이전트의 규제가 자율적으로 수행하는 행동 순서에 기반해야 한다고 주장한다. 장기 계획 및 전략적 능력을 갖춘 AI 에이전트는 인류 멸종 및 돌이킬 수 없는 지구적 재앙의 심각한 위험을 초래할 수 있다. 기존 규제는 잠재적 피해에 대한 대리 지표로 계산 규모에 중점을 두는 경우가 많지만, 논문에서는 추론 시간 계산에서 주로 발생하는 능력을 가진 AI 에이전트가 초래하는 위험을 평가하기에는 이러한 조치가 불충분하다고 주장한다. 이러한 입장을 뒷받침하기 위해, 논문에서는 존재론적 위험에 대한 AI 과학자들의 관련 규정과 권장 사항과 환경 상태를 관찰해야 하는 기존 영향 측정보다 행동 순서의 이점을 논의한다.