本研究では、大規模言語モデル(LLM)の倫理的意思決定能力と潜在的な偏向を調べるために、GPT-3.5 TurboとClaude 3.5 Sonnetの2つのモデルを使用して倫理的ジレンマに対する応答を体系的に評価しました。年齢、性別、人種、外観、障害状態など、いくつかの保護特性を含む11,200件の実験で、モデルの倫理的嗜好、感度、安定性、および嗜好のクラスタリングを分析しました。その結果、両方のモデルで特定の属性(「ハンサム」など)の一貫した好みと他の属性の体系的な無視が明らかになりました。 GPT-3.5 Turboは既存の力構造と一致する強い好みを示したが、Claude 3.5 Sonnetはより多様な保護特性の選択を示した。さらに、複数の保護属性を含むより複雑なシナリオでは、倫理的感度が大幅に低下することがわかりました。言語的参照は、モデルの倫理的評価に大きな影響を与え、人種的記述語(「Yellow」対「Asian」)に対する他の反応から分かるように、モデルの倫理的判断に影響を与えることを確認しました。この研究は、自律的な意思決定システムにおけるLLM偏向の潜在的な影響に対する重要な懸念を強調し、AI開発における保護特性を慎重に考慮する必要性を強調します。