Cet article aborde l'inquiétude croissante des experts quant au potentiel de pertes catastrophiques de systèmes d'IA de plus en plus autonomes et performants. S'appuyant sur les précédents positifs de l'industrie nucléaire, nous soutenons que les développeurs de modèles d'IA de pointe devraient bénéficier d'une responsabilité civile limitée, mais stricte et exclusive, pour les dommages résultant d'événements extrêmes d'IA (EIIA), c'est-à-dire d'événements ayant causé ou pouvant facilement causer des pertes catastrophiques. Nous recommandons une assurance obligatoire pour la responsabilité civile EIIA afin de pallier l'incapacité du développeur à statuer, d'atténuer la dynamique de la malédiction du gagnant et de tirer parti du pouvoir quasi réglementaire des assureurs. En nous appuyant sur des arguments théoriques et des exemples analogues tirés de l'industrie nucléaire, nous anticipons que les assureurs s'engageront dans un processus combinant modélisation des risques causaux, surveillance, lobbying pour une réglementation plus stricte et fourniture de conseils en matière de prévention des pertes dans le cadre de la fourniture d'une assurance contre les risques de queue lourde liés à l'IA. Bien qu'elles ne se substituent pas à la réglementation, une attribution claire des responsabilités et une assurance obligatoire peuvent faciliter les futurs efforts réglementaires en allouant efficacement les ressources à la modélisation des risques et à la conception sûre.