Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

A Risk Taxonomy and Reflection Tool for Large Language Model Adoption in Public Health

Created by
  • Haebom

作者

Jiawei Zhou, Amy Z. Chen, Darshi Shah, Laura M. Schwab Reese, Munmun De Choudhury

概要

本論文は、大規模言語モデル(LLM)を公衆衛生分野に適用するときに発生する可能性のあるリスクを評価するための構造的アプローチを提供します。感染病予防(ワクチン)、慢性疾患及びウェルネス管理(オピオイド使用障害)、地域社会の健康及び安全(配偶者暴力)の3つの重要な公衆衛生問題を中心に、公衆衛生専門家と実際の経験のある個人を対象にフォーカスグループインタビューを行い、LLMの使用に対する懸念を把握した。これにより、個人、人間中心の治療、情報生態系、技術責任性など4つの次元のリスクを含むリスク分類体系を提示し、各次元ごとに具体的なリスクと反省の質問を提供し、リスクに対する反省的アプローチを提案する。既存の情報行動モデルを見直し、実際の経験と現実世界の慣行を通じて、外部の妥当性と分野の専門知識を評価に含める必要性を強調する。結論として、本研究は、コンピューティングおよび公衆衛生の分野の専門家がLLMを利用するかどうか、および被害軽減策を共同で予測、評価および緩和するための共有語彙および反省ツールを提供する。

Takeaways、Limitations

Takeaways:
LLMの公衆衛生分野を適用する際に発生する可能性のあるリスクを体系的に評価および管理するための実質的なフレームワークの提供。
4つの次元(個人、人間中心の治療、情報生態系、技術責任性)のリスク分類体系を通じてリスク要因を明確に規定し、各リスクに対する反省の質問を提示し、実務者のリスク管理能力の強化。
公衆衛生の専門家と実際の経験者の視点を統合することによって、現実的なリスク評価と管理方針を提示します。
LLMの特性を考慮した情報行動モデルの見直しと外部の実現可能性を確保するための提案を提示する。
コンピューティングと公衆衛生の分野間の協力のための共有語彙とツールの提供。
Limitations:
限られた数のフォーカスグループ参加者を対象とした研究結果であるため、一般化の可能性に関する制約の存在。
特定の公衆衛生問題に限定された研究結果なので、他の分野への一般化には追加の研究が必要。
提示されたリスク分類システムと反省の質問がすべての状況に適用可能であるとは限りません。
LLM技術の急速な発展速度を考慮すると,研究結果の時効性問題の存在
👍