Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Large Language Models Do Not Simulate Human Psychology

Created by
  • Haebom

作者

Sarah Schr oder, Thekla Morgenroth, Ulrike Kuhl, Valerie Vaquet, Benjamin Paa{\ss}en

概要

本論文は、ChatGPTなどの大規模言語モデル(LLM)が心理学研究で人間の参加者を置き換えることができるという主張を批判的に検討します。 LLMが人間の心理をシミュレートするという仮説に関する概念的な議論を提示し、意味の変化によるLLMと人間の応答との間の違いを実証的に示すことによってこれを支持する。特に、心理学的応答に対して微調整されたCENTAURモデルを含むいくつかのLLMにおいて、新しい項目に対する応答が異なることを示し、LLMの信頼性の欠如を強調する。したがって、LLMは有用なツールですが、すべての新しいアプリケーションで人間の反応によって検証されるべき基本的に信頼できないツールとして扱われるべきであると結論付けています。

Takeaways、Limitations

Takeaways: LLMが人間の心理を正確にシミュレートできないことを実証的に示すことによって、心理学研究におけるLLMの使用への慎重なアプローチを促す。 LLMを心理学研究に活用する場合、人間反応との検証が必須であることを強調する。
Limitations:この研究は特定のLLMと限られたデータセットに基づく結果を提示するので、他のLLMまたはより広範なデータセットの一般化には注意が必要です。 LLMの発展速度を考慮すると、本研究の結論が長期的に有効であるかどうかについてのさらなる研究が必要である。
👍