Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Large Language Models Do Not Simulate Human Psychology

Created by
  • Haebom

作者

Sarah Schr oder, Thekla Morgenroth, Ulrike Kuhl, Valerie Vaquet, Benjamin Paa{\ss}en

概要

本論文は、ChatGPTのような大規模言語モデル(LLM)が心理学研究で人間の参加者を置き換えることができるという主張を批判的に検討する。 LLMが人間の心理をシミュレートするという仮説についての概念的な議論を提示し、心理学的反応に特別に微調整されたCENTAURモデルを含むいくつかのLLMを使用して経験的証拠を提示します。単語の微妙な変化が意味に大きな変化をもたらした場合、LLMと人間の反応との間にかなりの違いが生じ、他のLLMは新しい項目に対して非常に異なる反応を示すことを示すことによってLLMの信頼性の欠如を実証する。結論として、LLMは人間の心理をシミュレートせず、心理学研究者はLLMを有用だが根本的に信頼できないツールと見なし、すべての新しいアプリケーションで人間の反応と検証する必要があると主張する。

Takeaways、Limitations

Takeaways: LLMは心理学の研究に役立つツールとして使用できますが、人間の参加者を完全に置き換えることはできないことを強調します。 LLMの結果は、常に人間の反応と比較し検証する必要があることを示唆しています。 LLMの限界を認識し、研究設計と解釈に注意する必要があることを強調する。
Limitations:この研究は、特定のLLMと限られたデータセットに基づいて一般化の可能性に制限があるかもしれません。様々なタイプの心理学研究およびLLMに関するさらなる研究が必要である。 LLMの発展速度を考慮すると、本研究の結論が長期的に維持されるかどうかは不確実である。
👍