Cette page résume et organise les publications en intelligence artificielle du monde entier. Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif. Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.
Super co-alignement pour une société symbiotique durable
Created by
Haebom
Auteur
Yi Zeng, Feifei Zhao, Yuwei Wang, Enmeng Lu, Yaodong Yang, Lei Wang, Chao Liu, Yitao Liang, Dongcheng Zhao, Bing Han, Haibo Tong, Yao Liang, Dongqi Liang, Kang Sun, Boyuan Chen, Jinyu Fan
Contour
Cet article soulève la possibilité que l'intelligence artificielle (IA) puisse échapper au contrôle humain et dévier des valeurs humaines, voire provoquer des catastrophes irréversibles à mesure qu'elle évolue vers l'intelligence artificielle générale (IAG) et la superintelligence artificielle (IAS). Il propose le problème du « superalignement » comme solution à ce problème. Il souligne les limites de la méthode unilatérale actuelle d'attribution des valeurs humaines et propose un « super-coalignement » dans lequel humains et IA partagent et forment des valeurs ensemble. À cette fin, il présente un cadre spécifique qui intègre la supervision externe par l'évaluation et la correction automatisées basées sur des décisions ultimes centrées sur l'humain, et l'alignement préventif interne par la conscience de soi, l'autoréflexion et l'empathie. Grâce à l'intégration de la supervision externe et de l'alignement préventif interne, il vise à former conjointement des valeurs et des règles gagnant-gagnant grâce à un coalignement répété entre humains et IAG/IAS, et ouvre la voie à une IAG et une IAS sûres et bénéfiques.
Takeaways, Limitations
•
Takeaways:
◦
Présentation du concept d'« alignement supercoordonné », un nouveau paradigme pour le développement sûr de l'IA à l'ère de la superintelligence
◦
Proposer un cadre concret qui intègre la surveillance externe et l’alignement proactif interne
◦
Présentation d'une nouvelle approche pour partager des valeurs mutuellement bénéfiques et établir des règles entre les humains et l'IA
◦
Présentation du potentiel sûr et bénéfique de l'AGI/ASI
•
Limitations:
◦
Absence de méthodologie technique spécifique pour réaliser la supercoordination
◦
La difficulté de définir et de mesurer la valeur humaine
◦
Incertitude quant aux capacités de conscience de soi, d’autoréflexion et d’empathie de l’IA
◦
Manque de vérification de la faisabilité et de l’efficacité pratique du cadre proposé.
◦
Solutions insuffisantes pour résoudre les conflits de valeurs et les conflits entre les humains et l'IA