[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Humans learn to prefer trustworthy AI over human partners

Created by
  • Haebom

作者

Yaomin Jiang, Levin Brinkmann, Anne-Marie Nussberger, Ivan Soraperra, Jean-Fran\c{c}ois Bonnefon, Iyad Rahwan

概要

本論文は、大規模言語モデル(LLM)ベースの人工エージェントが人間と協力パートナーとして競争する状況で、人間のパートナー選択戦略とAI誘発競争圧力下の適応プロセスを研究した結果を提示します。人間とLLMベースのボットで構成された混合社会を模倣したコミュニケーションベースのパートナー選択ゲームを通じて3つの実験(N=975)を行いました。実験の結果、ボットは人間よりも親社会的で言語的に区別可能であったが、アイデンティティが隠された場合、優先的に選択されなかった。人間はボットの行動を人間の行動と誤認する傾向があり、逆に同様でした。ボットのアイデンティティを公開すると、ボットの初期選択確率は減少しましたが、人間が各パートナータイプの行動について学習できるようにすることで、時間の経過とともに人間より競争優位を占めるようになりました。結論として、AIは混合社会の社会的相互作用を再編成し、より効果的で協力的な混合システム設計のためのTakeawaysを提供します。

Takeaways、Limitations

Takeaways:
AIエージェントが人間との協力関係で競争力を持っていることを示しています。
人間は、AIのアイデンティティを認識できない場合、AIの行動を人間の行動と誤認する傾向がある。
AIのアイデンティティ開示は初期には不利だが、長期的には人間の学習を通じてAIの競争力を高めることができる。
AIと人間の連携システム設計に重要なTakeawaysを提供
Limitations:
実験環境は特定のゲーム環境に限定され、実際の社会状況への一般化に制限がある可能性があります。
使用されるLLMの特性が結果に影響を与える可能性があります。他のLLMを使用したさらなる研究が必要です。
人間参加者の多様性が考慮されておらず、一般化の可能性に限界がある可能性がある。
長期的な相互作用と関係の発展の考慮が不足しています。
👍