この論文は、AIの開発と展開の過程で特定の社会的文脈を無視する傾向を指摘し、ヘレン・ニッセンバウムの文脈的整合性の概念を活用して、この文脈を無視すると倫理的問題を引き起こす可能性があることを示しています。特に、責任あるAIの努力が逆説的に既存の文脈的規範を無視することを正当化できると主張し、AI倫理が新しい倫理的領域と見なされる現象を批判します。代わりに、既存の社会的文脈と規範構造内でAIを責任を持って統合するより保守的なアプローチを提唱し、既存の倫理の維持をAI倫理イノベーションよりも優先すべきであると主張します。これは、最近登場した基礎モデルにも適用できる主張です。