この論文は、大規模言語モデル(LLM)における戦略的ランダム性(strategic randomization)というゲーム理論の重要な原理を探ります。従来の研究では、認知的ランダム化の決定と機械的ランダム性の生成を混同する傾向がありました。このゲームのバランスは最大エントロピー戦略に対応し、その複雑さのために訓練されていない人間とパフォーマンスの低いLLMはそれを認識しません。さまざまなプロンプトスタイル(具体的、中立的、ヒント付き)を使用して5つのLLMを評価し、システム提供のランダムな選択を通じてランダム化決定を分離し、競争的なマルチトーナメントゲームプレイを進めました。その結果、弱いモデルはプロンプトに関係なく決定論的ですが、強力なモデルは明示的なヒントの下でランダム化が増加することを示しました。強力なLLMは、弱いモデルと対決するときは偏向を利用するために決定論的戦略を採用しますが、同等の相手と対決するときはバランスポイントプレイに収束します。勝敗の結果とベイズ因子分析によるLLMの戦略的推論能力の有意差を示し,抽象的推論と適応学習改善の可能性を強調した。ソースコードは公開されています。