Este artículo aborda la creciente preocupación de los expertos sobre la posibilidad de que los sistemas de IA, cada vez más autónomos y capaces, causen pérdidas catastróficas. Basándonos en los precedentes exitosos de la industria nuclear, argumentamos que los desarrolladores de modelos de IA de vanguardia deberían tener una responsabilidad limitada, pero estricta y exclusiva frente a terceros por los daños resultantes de eventos extremos de IA (CAIO), es decir, eventos que han causado o podrían causar fácilmente pérdidas catastróficas. Recomendamos un seguro obligatorio de responsabilidad por CAIO para superar la incapacidad del desarrollador para arbitrar, mitigar la dinámica de la maldición del ganador y aprovechar el poder cuasirregulatorio de las aseguradoras. Basándonos en argumentos teóricos y ejemplos análogos de la industria nuclear, prevemos que las aseguradoras realizarán una combinación de modelado de riesgos causales, monitoreo, presión para una regulación más estricta y orientación sobre prevención de pérdidas en el proceso de proporcionar seguros contra riesgos de cola pesada derivados de la IA. Si bien no sustituyen la regulación, la atribución clara de responsabilidad y el seguro obligatorio pueden facilitar futuras iniciativas regulatorias al asignar eficientemente recursos al modelado de riesgos y al diseño seguro.