随着人工智能迅速改变社会,开发者和政策制定者难以预测哪些应用将面临公众的道德抵制。这项研究表明,这些判断并非特质性的,而是系统性的、可预测的。一项大型预注册研究(N = 587,美国代表性样本)使用了 100 个人工智能应用的综合分类法,涵盖个人和组织环境。参与者的集体判断从极度不可接受到完全可以接受不等。这些变化具有很强的预测性,五个核心道德特征(感知风险、利益、不诚实、不自然和责任感减轻)共同解释了可接受性评级中 90% 以上的差异。该框架在所有领域都表现出强大的预测能力,并成功预测了个人对被保留应用的判断。这些结果揭示了公众对新技术评价背后存在一种结构化的道德心理学,为预测公众抵制和指导人工智能领域的负责任创新提供了强有力的工具。