본 논문은 일반 목적 AI의 안전성 향상을 위한 다양한 규제 접근 방식의 효과에 대한 이해가 부족하다는 점을 지적하며, 규제 기관, 일반 목적 AI 기술 개발자, 그리고 특정 응용 분야에 AI를 적용하는 도메인 전문가 간의 상호 작용을 탐구하는 전략적 모델을 제시합니다. AI 기술은 안전성과 성능이라는 두 가지 주요 속성으로 설명되며, 규제 기관은 최소 안전 기준을 설정하고, 일반 목적 AI 개발자는 기술의 초기 안전성과 성능 수준을 결정합니다. 도메인 전문가는 특정 용도에 맞게 AI를 개선하고, 수익은 사전 협상을 통해 분배됩니다. 이 게임 분석을 통해 약한 규제가 역효과를 낼 수 있으며, 강력하고 적절한 규제는 모든 참여자에게 이익이 될 수 있음을 보여줍니다.