この論文は、ますます自律的で能力のあるAIシステムが深刻な損失を引き起こす可能性についての専門家の懸念を扱います。原子力産業の成功した先例に基づいて、極端なAI事象(CAIOs) - つまり、途方もない損失を引き起こしたり簡単に引き起こす可能性がある事件 - による被害に対して最先端のAIモデル開発者に制限的だが厳格で排他的な第三者責任を付与しなければならないと主張する。開発者の判決不可能性を克服し、勝者の呪い力学を緩和し、保険会社の準規制能力を活用するために、CAIO責任に対する義務保険を推奨する。理論的議論と原子力産業の類似事例に基づいて、保険会社は、AIのヘビーテールリスクに対する保険提供過程で、因果的リスクモデリング、モニタリング、より厳しい規制のためのロビー、損失防止指針の提供などを混合して行うことが予想される。規制の代替品ではありませんが、明確な責任付与と義務保険は、リスクモデリングと安全な設計にリソースを効率的に割り当てることで、将来の規制努力を促進するのに役立ちます。