Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Meta-learning ecological priors from large language models explains human learning and decision making

Created by
  • Haebom

作者

Akshay K. Jagadish, Mirko Thalmann, Julian Coda-Forno, Marcel Binz, Eric Sc​​hulz

概要

本論文では、人間の認知が実際の環境の統計的構造への原則的な適応として説明できるかどうかを研究します。生態学的に妥当な認知課題を大規模に生成する大規模言語モデルと、このような環境に最適化された合理的モデルを導出するメタラーニングを活用して、新しい学習アルゴリズムである生態合理的メタ学習推論(ERMI)を開発しました。 ERMIは、自然主義的な問題空間の統計的規則性を内在化し、手作業で作成したヒューリスティックや明示的なパラメータを更新することなく、新しい状況に柔軟に適応します。 15の実験(関数学習、カテゴリー学習、意思決定を含む)で人間の行動を捉え、既存の複数の認知モデルよりも実施別予測で優れた性能を示しました。これは、人間の認知のかなりの部分が日常生活に遭遇する問題の生態構造の適応的整列を反映することができることを示唆しています。

Takeaways、Limitations

Takeaways:
ERMIは、人間の認知の生態学的合理性を裏付ける強力な証拠を提示します。
大規模な言語モデルとメタランニングを組み合わせることで,実際の環境に適応する新しい学習アルゴリズムを開発した。
人間の行動予測では、従来のモデルよりも優れたパフォーマンスを示すことで、人間の認知モデリングの新しい方向性を提示します。
Limitations:
ERMIの一般化能力の追加検証が必要です。
使用される大規模言語モデルの偏りが結果に影響を与える可能性があります。
実際の世界の複雑さを完全に反映しているかどうかに関するさらなる研究が必要です。
👍