[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Prompt Perturbations Reveal Human-Like Biases in LLM Survey Responses

Created by
  • Haebom

作者

Jens Rupprecht, Georg Ahnert, Markus Strohmaier

概要

本論文は、大規模言語モデル(LLM)を社会科学調査の人間の被験者の代用として使用することに対する信頼性と反応偏向に対する脆弱性を調査する。 World Values Survey(WVS)質問を使用して、9つの異なるLLMを対象に質問方式と回答オプション構造に対する11の変化を適用し、167,000以上の模擬インタビューを行った。その結果、LLMは変化に対して脆弱であるだけでなく、すべてのモデルで強度が異なりますが、一貫した最新性偏向を示し、最後に提示された回答オプションを過度に好むことを発見しました。より大きなモデルは一般的により強力ですが、すべてのモデルは他の表現に置き換えるなどの意味の変化や複雑な変化に依然として敏感です。一連の変化を適用することによって、LLMがヒトから同定されたアンケート応答の偏向と部分的に一致することがわかった。これは、LLMを使用して合成アンケートデータを生成するときのプロンプト設計と堅牢性テストの重要性を強調します。

Takeaways、Limitations

Takeaways:
LLMが社会科学調査に適用されると、反応の偏りに脆弱であることがわかります。
LLMで一貫して現れる最新性の偏りを確認してください。
LLMを使用した合成アンケートデータの生成におけるプロンプト設計と堅牢性テストの重要性を強調します。
LLMのサイズが大きいほど、一般的に堅牢性が高くなります。
LLMの反応偏向がヒトの反応偏向と部分的に一致することを確認した。
Limitations:
この研究で使用されているLLMの種類とWVS質問の特性は、研究結果の一般化の可能性に影響を与える可能性があります。
より多様な種類の調査質問とパターベーションに関するさらなる研究が必要である。
LLMの反応偏向を完全に排除する方法に関するさらなる研究が必要です。
👍