본 논문은 AI 안전 규제의 효과에 대한 이해가 부족한 현 상황을 고려하여, AI 안전 규제, 범용 AI 개발자, 그리고 특정 분야 전문가 간의 상호작용을 탐구하는 전략적 모델을 제시합니다. AI 기술의 안전성과 성능이라는 두 가지 주요 속성을 가정하고, 규제 기관이 안전 기준을 설정하고, 범용 AI 개발자가 기술에 투자하여 초기 안전성과 성능 수준을 결정하며, 도메인 전문가가 AI를 특정 용도에 맞게 개선하여 시장에 출시하는 과정을 모델링합니다. 수익 분배는 개발자와 전문가 간의 수익 공유 매개변수를 통해 이루어집니다. 분석 결과, 도메인 전문가에게만 부과되는 미흡한 안전 규제는 역효과를 낼 수 있으며, 반대로 범용 AI 개발자와 도메인 전문가 모두에게 적절한 안전 기준을 부과하는 강력한 규제는 모든 참여자에게 이익이 될 수 있음을 보여줍니다.