每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

人工智能应用的可接受性与不可接受性?一个预测性道德框架

Created by
  • Haebom

作者

金莫·埃里克森、西蒙·卡尔森、伊琳娜·瓦尔塔诺娃、庞图斯·斯特里姆林

大纲

随着人工智能迅速改变社会,开发者和政策制定者难以预测哪些应用将面临公众的道德抵制。这项研究表明,这些判断并非特质性的,而是系统性的、可预测的。一项大型预注册研究(N = 587,美国代表性样本)使用了 100 个人工智能应用的综合分类法,涵盖个人和组织环境。参与者的集体判断从极度不可接受到完全可以接受不等。这些变化具有很强的预测性,五个核心道德特征(感知风险、利益、不诚实、不自然和责任感减轻)共同解释了可接受性评级中 90% 以上的差异。该框架在所有领域都表现出强大的预测能力,并成功预测了个人对被保留应用的判断。这些结果揭示了公众对新技术评价背后存在一种结构化的道德心理学,为预测公众抵制和指导人工智能领域的负责任创新提供了强有力的工具。

Takeaways, Limitations

Takeaways:
提出一个预测公众对人工智能应用接受度的框架。
提供可用于开发人工智能技术和为政策决策提供信息的工具。
帮助我们理解和预测公众对人工智能技术的反应。
Limitations:
仅使用来自特定国家(美国)的代表性样本。
五项核心道德特征还有待进一步研究。
需要在实际的人工智能技术引入和使用环境中进行验证。
👍