Cet article propose un programme de rémunération obligatoire, piloté par le gouvernement, pour les développeurs d'IA afin de pallier les risques non couverts par l'assurance, notamment les risques ontologiques, auxquels les systèmes d'IA peuvent être exposés. Ce programme induit un niveau d'attention socialement optimal grâce à une rémunération basée sur les risques et évalue les risques par le biais d'enquêtes d'experts (en utilisant le mécanisme bayésien d'induction de vérité). Les rémunérations collectées servent à financer les recherches des développeurs sur la sécurité. À cette fin, nous proposons une méthode de financement quadratique combinant les contributions privées des développeurs et les fonds publics. Cette méthode présente l'avantage d'exploiter efficacement les informations privées et de fournir clairement aux développeurs une orientation en matière d'atténuation des risques par rapport aux alternatives existantes.