본 논문은 대규모 언어 모델(LLM)의 전략적 의사결정 능력을 평가하기 위해 행동 게임 이론에 기반한 새로운 평가 프레임워크를 제시합니다. Nash Equilibrium(NE) 근사에 초점을 맞춘 기존 평가 방식과 달리, 본 연구는 LLM의 전략적 선택을 이끄는 메커니즘을 분석합니다. 22개의 최첨단 LLM을 대상으로 실험한 결과, GPT-o3-mini, GPT-o1, DeepSeek-R1이 대부분의 게임에서 우수한 성능을 보였으나 모델 규모만으로 성능을 예측할 수 없음을 확인했습니다. 또한, Chain-of-Thought(CoT) 프롬프팅이 모든 모델에 효과적인 것은 아니며, 특정 수준의 모델에서만 전략적 추론 능력을 향상시키는 것으로 나타났습니다. 마지막으로, 인코딩된 인구통계적 특징이 모델의 의사결정 패턴에 미치는 영향을 조사하여, 특정 속성 할당이 의사결정에 편향을 야기할 수 있음을 보였습니다. 예를 들어, GPT-4o는 여성 특성을 부여받았을 때 남성 특성을 부여받았을 때보다 더 강한 전략적 추론 능력을 보였습니다. 이러한 결과는 향상된 추론 능력과 공정성 사이의 균형을 맞추기 위해 윤리적 기준과 상황적 정합성이 필요함을 강조합니다.