Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Super Co-alignment for Sustainable Symbiotic Society

Created by
  • Haebom

作者

Yi Zeng, Feifei Zhao, Yuwei Wang, Enmeng Lu, Yaodong Yang, Lei Wang, Chao Liu, Yitao Liang, Dongcheng Zhao, Bing Han, Haibo Tong, Yao Liang, Dongqi Liang, Kang Sun, Boyuan Chen, Jinyu Fan

概要

この論文は、人工知能(AI)が人工一般知能(AGI)と人工超知能(ASI)に発展するにつれて、人間の制御から外れ、人間の価値から逸脱しても不可逆的な災害を引き起こす可能性を提起し、これに対する解決策として「超整列(superalignment)」問題を解決します。既存の人間価値一方的付与方式の限界を指摘し、人間とAIが共に価値を共有し形成する「超共同整列(Super Co-alignment)」を提案します。この目的のために、人間中心の究極の決定に基づいて、自動化された評価と修正を通じた外部の監督と、自己認識、自己洞察、共感による内的先制的なアライメントを統合する具体的なフレームワークを提示します。外部の監督と内的先制的なアラインメントの統合を通じて、人間とAGI / ASIの反復的な共同アラインメントを通じて、共生的な価値と規則を共同で形成し、安全で有益なAGIとASIのための道を開くことを目指しています。

Takeaways、Limitations

Takeaways:
超知能時代の安全なAI開発のための新しいパラダイムである「超共同整列」概念提示
外部監督と内的先制的なアライメントを統合した具体的なフレームワークの提案
人間とAIの相生的価値の共有と規則形成のための新しいアプローチの提示
AGI/ASIの安全で有益な利用可能性の提示
Limitations:
超共同整列を達成するための具体的な技術的方法論の欠如
人間の価値を定義し測定することの難しさ
AIの自己認識、自己洞察、共感能力に対する不確実性
提案されたフレームワークの実現可能性と実際の効果に対する検証の欠如
人間とAI間の価値の衝突と紛争解決策の不足
👍