本論文は、社会科学や応用分野における人間と同様の意思決定エージェントとして使用される大規模言語モデル(LLM)の行動に及ぼすキャラクターと文脈の影響を探る。特に、公平性と親社会的行動のための古典的な行動実験である独裁者ゲームを通じて、LLMの内部表象を調査、定量化、修正する方法を提案し検証する。 LLMの内部状態から「変数変化ベクトル」(例えば、「男性」から「女性」へ)を抽出し、推論中にこれらのベクトルを操作することによって、変数がモデルの意思決定にどのように関連するかを大きく変えることができることを示す。このアプローチは、トランスベースのモデル内で社会的概念がどのようにエンコードされ設計されているかを研究し規制するための原則的な方法を提供し、学界および商業アプリケーションにおける社会的シミュレーションのためのAIエージェントの整列、偏向除去、および設計に関するTakeawaysを提供します。これは社会学の理論と測定の強化に貢献するかもしれません。