Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games

Created by
  • Haebom

作者

David Guzman Piedrahita, Yongjin Yang, Mrinmaya Sachan, Giorgia Ramponi, Bernhard Sch olkopf, Zhijing Jin

概要

本論文は、多数の大規模言語モデル(LLM)エージェントが相互作用する状況における資源の無駄な制裁の役割を研究します。行動経済学の公共財ゲームをLLMエージェントシステムに適用して、繰り返しの相互作用でLLMが社会的ジレンマをどのように探索するかを観察します。分析の結果、LLMは、協力レベルを継続的に維持するグループ、協力と非協力を繰り返すグループ、時間の経過とともに協力が減少するグループ、結果に関係なく、固定戦略に従うグループなど、4つの行動パターンを示すことがわかりました。驚くべきことに、o1シリーズのような推論能力に優れたLLMは協力に困難を抱えていたが、一部の既存のLLMは一貫して高いレベルの協力を達成している。これは、推論能力の向上に焦点を当てた従来のLLM改善方式が協力につながらないことを示唆している。

Takeaways、Limitations

Takeaways:
LLMの推論能力の向上が協力に直結しないことを示した。 LLMエージェントの協力的行動設計に対する新しいアプローチの必要性を提示
様々なLLMアーキテクチャと訓練方式に応じた異なる協力行動パターンの発見LLMの社会的行動予測と制御の難しさを強調
公共財ゲームなどの実験的フレームワークを通じて、LLMの社会的行動分析の可能性を提示します。
Limitations:
実験に使用したLLMの種類とバージョンの制限。様々なLLMの一般化可能性の制限
公共財ゲームと呼ばれる特定の状況の分析結果。異なるタイプの社会的ジレンマ状況への一般化に関するさらなる研究の必要性
製剤メカニズムの具体的な設計とパラメータに対する感度分析の欠如
👍