Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

AI-Powered Detection of Inappropriate Language in Medical School Curricula

Created by
  • Haebom

作者

Chiman Salavati、Shannon Song、Scott A. Hale、Roberto E. Montenegro、Shiri Dori-Hacohen、Fabricio Murai

概要

本論文は、医学教育資料内の不適切な言語使用(IUL)を自動的に識別するための小型言語モデル(SLM)と事前訓練された大型言語モデル(LLM)の性能を評価した研究です。約500文書(12,000ページ以上)のデータセットを使用して、IUL一般分類器、サブカテゴリ別バイナリ分類器、マルチラベル分類器、および階層パイプラインなど、さまざまなSLMモデルと、いくつかのプロンプトバリエーションを適用したLLM(Llama-3 8Bおよび70B)を比較分析しました。その結果、慎重に構成されたショットを使用したLLMよりもSLMのパフォーマンスがはるかに優れており、特に不適切な言語使用事例がない部分を音声例としてさらに訓練したサブカテゴリ別バイナリ分類器が最も効果的であることがわかりました。

Takeaways、Limitations

Takeaways:
医学教育資料内の不適切な言語使用を自動的に識別するために、SLMがLLMより効果的であることを示しています。
特に、不適切な言語使用のない資料を音声例として活用して訓練したサブカテゴリー別のバイナリ分類器が高い性能を示す。
SLMベースの自動化システムによる医学教育資料の定性的向上と偏向除去に寄与する可能性を提示
Limitations:
研究に使用されたデータセットの規模は比較的小さいかもしれません。
さまざまな種類の不適切な言語使用をすべてカバーしていない可能性。
実際の医学教育現場に適用するための追加の研究と検証の必要性。
LLMの性能低下の原因の詳細な分析の欠如
👍