Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Large Language Model Strategic Reasoning Evaluation through Behavioral Game Theory

Created by
  • Haebom
Category
Empty

저자

Jingru Jia, Zehua Yuan, Junhao Pan, Paul E. McNamara, Deming Chen

개요

본 논문은 대규모 언어 모델(LLMs)의 전략적 의사결정 능력을 평가하기 위해 행동 게임 이론에 기반한 새로운 평가 프레임워크를 제시합니다. Nash Equilibrium(NE) 근사에 초점을 맞춘 기존 평가 방식과 달리, 본 연구는 LLMs의 전략적 선택을 이끄는 메커니즘을 분석합니다. 22개의 최첨단 LLMs를 대상으로 실험한 결과, GPT-o3-mini, GPT-o1, DeepSeek-R1이 대부분의 게임에서 우수한 성능을 보였지만, 모델 규모만으로 성능을 예측할 수 없음을 확인했습니다. 또한, Chain-of-Thought(CoT) 프롬프팅이 모든 모델에 효과적인 것은 아니며, 특정 수준의 모델에서만 전략적 추론 능력을 향상시키는 것으로 나타났습니다. 아울러, 모델에 인코딩된 인구통계적 특징이 의사결정 패턴에 미치는 영향을 조사하여, 특정 속성 할당이 모델의 전략적 추론에 편향을 유발할 수 있음을 발견했습니다. 예를 들어, GPT-4o는 여성 특성을 부여받았을 때 더 강한 전략적 추론 능력을 보였고, Gemma는 이성애자에게 더 높은 추론 수준을 할당하는 경향을 보였습니다.

시사점, 한계점

시사점:
행동 게임 이론 기반의 새로운 LLM 평가 프레임워크 제시
모델 규모와 성능 간의 상관관계 부재 확인
CoT 프롬프팅의 효과가 모델 수준에 따라 다름을 밝힘
LLM에 내재된 인구통계적 편향 발견 및 윤리적 문제 제기
공정성과 향상된 추론 능력 간의 균형 필요성 강조
한계점:
특정 게임 및 모델에 국한된 결과의 일반화 가능성 제한
인구통계적 편향의 원인 및 해결 방안에 대한 추가 연구 필요
프롬프트 엔지니어링 외 다른 요인들의 영향에 대한 추가 분석 필요
👍