본 논문은 인공지능(AI) 에이전트의 규제가 자율 작동 수준에 따라 달라져야 한다고 주장합니다. 장기 계획 및 전략적 능력을 갖춘 AI 에이전트는 인류 멸종 및 돌이킬 수 없는 지구적 재앙의 심각한 위험을 초래할 수 있습니다. 기존 규제는 잠재적 피해의 척도로 계산 규모에 초점을 맞추는 경우가 많지만, 이는 추론 시간 계산에서 주로 능력이 발생하는 에이전트가 제기하는 위험을 평가하기에 불충분하다고 논문은 주장합니다. 이를 뒷받침하기 위해, 논문은 존재적 위험에 대한 과학자들의 관련 규제 및 권고 사항과 함께, 환경 상태 관찰에 의존하는 기존 지표보다 에이전트의 자율성 정도를 반영하는 행동 순서를 잠재적 영향의 더 적절한 척도로 사용하는 이점에 대해 논의합니다.