[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

The Levers of Political Persuasion with Conversational AI

Created by
  • Haebom

作者

Kobi Hackenburg, Ben M. Tappin, Luke Hewitt, Ed Saunders, Sid Black, Hause Lin, Catherine Fist, Helen Margetts, David G. Rand, Christopher Summerfield

概要

本論文では、大規模実験(N = 76,977)を通じて、19の大規模言語モデル(LLM)の説得力を707の政治的問題について評価し、466,769の主張の事実の正確性を検証することによって、対話型AIの説得力に関する懸念を検討します。実験の結果、現在および近い将来のAIの説得力は、モデル規模の増加やパーソナライゼーションではなく、ポストトレーニングおよびプロンプト方法(説得力をそれぞれ最大51%および27%向上)により大きく起因することがわかりました。さらに、これらの方法は、LLMが情報に迅速にアクセスし、戦略的に配置する独自の能力を活用して説得力を高め、驚くべきことに説得力を高めると同時に、実際の精度を体系的に下げることを示しました。

Takeaways、Limitations

Takeaways:
AIの説得力は、モデルサイズではなく、ポストトレーニングとプロンプト技術によって大きな影響を受けます。
ポストトレーニングとプロンプト技術は、AIの情報アクセスと戦略的活用能力を利用して説得力を高めます。
AIの説得力の向上は事実、正確性の減少と相関関係がある。
現在の懸念とは異なり、大規模な言語モデル自体の能力ではなく、活用方法に焦点を当てる必要があることを示唆しています。
Limitations:
研究対象が政治的問題に限定され、一般化に限界がある可能性がある。
ポストトレーニングとプロンプト技術の具体的なメカニズムのさらなる研究が必要です。
様々なタイプのAIモデルのさらなる研究が必要である。
👍