본 연구는 사회 과학 및 응용 분야에서 인간과 유사한 의사 결정 에이전트로 활용되는 대규모 언어 모델(LLM)의 행동을 탐구한다. 특히, 딕테이터 게임(Dictator Game)을 통해 LLM의 내부 표현을 탐구, 정량화 및 수정하는 방법을 제안하고 테스트한다. 모델의 내부 상태에서 "변수 변화 벡터"를 추출하고, 추론 과정에서 이러한 벡터를 조작하여 LLM의 의사 결정에 영향을 미치는 변수 간의 관계를 변경한다. 이는 변압기 기반 모델 내에서 사회적 개념이 어떻게 인코딩되고 조작될 수 있는지 연구하고, 정렬, 편향 제거, 학문 및 상업적 응용 분야의 사회 시뮬레이션을 위한 AI 에이전트 설계에 기여한다.