본 논문은 사회과학 및 응용 분야에서 인간과 유사한 의사결정 에이전트로서 사용되는 대규모 언어 모델(LLM)의 행동에 미치는 캐릭터와 맥락의 영향을 탐구한다. 특히, 공정성과 친사회적 행동에 대한 고전적인 행동 실험인 독재자 게임을 통해 LLM의 내부 표상을 조사하고 정량화하며 수정하는 방법을 제안하고 검증한다. LLM의 내부 상태에서 "변수 변화 벡터" (예: "남성"에서 "여성"으로)를 추출하여 추론 중에 이러한 벡터를 조작함으로써 변수가 모델의 의사결정과 어떻게 관련되는지 크게 바꿀 수 있음을 보여준다. 이 접근 방식은 트랜스포머 기반 모델 내에 사회적 개념이 어떻게 인코딩되고 설계될 수 있는지 연구하고 규제하는 원칙적인 방법을 제공하며, 학계 및 상업적 응용 분야에서 사회적 시뮬레이션을 위한 AI 에이전트의 정렬, 편향 제거 및 설계에 대한 시사점을 제시한다. 이는 사회학 이론과 측정을 강화하는 데 기여할 수 있다.