[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Bias in Decision-Making for AI's Ethical Dilemmas: A Comparative Study of ChatGPT and Claude

Created by
  • Haebom

作者

Yile Yan, Yuqi Zhu, Wentao Xu

概要

本研究では、大規模言語モデル(LLM)の倫理的意思決定能力と潜在的な偏向を調べるために、GPT-3.5 TurboとClaude 3.5 Sonnetの2つのモデルを使用して倫理的ジレンマに対する応答を体系的に評価しました。年齢、性別、人種、外観、障害状態など、いくつかの保護特性を含む11,200件の実験で、モデルの倫理的嗜好、感度、安定性、および嗜好のクラスタリングを分析しました。その結果、両方のモデルで特定の属性(「ハンサム」など)の一貫した好みと他の属性の体系的な無視が明らかになりました。 GPT-3.5 Turboは既存の力構造と一致する強い好みを示したが、Claude 3.5 Sonnetはより多様な保護特性の選択を示した。さらに、複数の保護属性を含むより複雑なシナリオでは、倫理的感度が大幅に低下することがわかりました。言語的参照は、モデルの倫理的評価に大きな影響を与え、人種的記述語(「Yellow」対「Asian」)に対する他の反応から分かるように、モデルの倫理的判断に影響を与えることを確認しました。この研究は、自律的な意思決定システムにおけるLLM偏向の潜在的な影響に対する重要な懸念を強調し、AI開発における保護特性を慎重に考慮する必要性を強調します。

Takeaways、Limitations

Takeaways:
LLMの倫理的意思決定の体系的な評価フレームワークの提供。
GPT-3.5 TurboとClaude 3.5 Sonnetにおける保護特性の偏りの存在の確認
複雑なシナリオにおける倫理的感度低下現象の発見
言語表現がLLMの倫理的判断に及ぼす影響の確認
AI開発における保護特性の考慮の重要性を強調する。
Limitations:
研究に使用されたモデルの限られた数。
実験設計の複雑さによる解釈の難しさ
様々な言語と文化的文脈の考慮不足。
長期的な倫理的影響の評価不足。
👍