Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Do LLMs Know When to Flip a Coin? Strategic Randomization through Reasoning and Experience

Created by
  • Haebom

作者

Lingyu Yang (Shanghai Jiao Tong University)

概要

この論文は、大規模言語モデル(LLM)における戦略的ランダム性(strategic randomization)というゲーム理論の重要な原理を探ります。従来の研究では、認知的ランダム化の決定と機械的ランダム性の生成を混同する傾向がありました。このゲームのバランスは最大エントロピー戦略に対応し、その複雑さのために訓練されていない人間とパフォーマンスの低いLLMはそれを認識しません。さまざまなプロンプトスタイル(具体的、中立的、ヒント付き)を使用して5つのLLMを評価し、システム提供のランダムな選択を通じてランダム化決定を分離し、競争的なマルチトーナメントゲームプレイを進めました。その結果、弱いモデルはプロンプトに関係なく決定論的ですが、強力なモデルは明示的なヒントの下でランダム化が増加することを示しました。強力なLLMは、弱いモデルと対決するときは偏向を利用するために決定論的戦略を採用しますが、同等の相手と対決するときはバランスポイントプレイに収束します。勝敗の結果とベイズ因子分析によるLLMの戦略的推論能力の有意差を示し,抽象的推論と適応学習改善の可能性を強調した。ソースコードは公開されています。

Takeaways、Limitations

Takeaways:
LLMの戦略的推論能力の新しい評価方法の提示
LLMのランダム化戦略の使用能力と相対モデルの強弱による戦略変化の分析
抽象的推論と適応学習能力の向上のための方向性の提示
公開されたソースコードによる研究の再現性の確保
Limitations:
提案されたゲームは特定のゼロサムゲームに限定され、一般化に関するさらなる研究が必要です
評価に使用されるLLMの種類とバージョンによる制限の存在
プロンプトエンジニアリングの影響に関する追加の分析が必要
より多様で複雑なゲーム環境でのLLMパフォーマンス評価が必要
👍