Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Are LLMs Enough for Hyperpartisan, Fake, Polarized and Harmful Content Detection? Evaluating In-Context Learning vs. Fine-Tuning

Created by
  • Haebom

作者

Michele Joshua Maggini, Dhia Merzougui, Rabiraj Bandyopadhyay, Ga el Dias, Fabrice Maurel, Pablo Gamallo

概要

本論文は、オンラインプラットフォーム上の偽ニュース、極端な偏向情報、有害コンテンツ拡散問題に対する対応策として注目される大規模言語モデル(LLM)の性能を様々なモデル、使用方法、言語にわたって総合的に評価した研究である。 10のデータセットと5つの言語(英語、スペイン語、ポルトガル語、アラビア語、ブルガリア語)を使用して、二元および多重分類シナリオにおけるLLMの適応パラダイムを実験的に比較分析した。パラメータ効率的な微調整(Fine-Tuning)から、ゼロショットプロンプト、コードブック、数ショット学習(任意選択およびDPPベースの様々な選択例を含む)、思考連鎖(Chain-of-Thought)など、さまざまなコンテキスト学習(In-Context Learning)戦略を試験した。

Takeaways、Limitations

Takeaways: LLMを使用した偽のニュースおよび有害なコンテンツ検出研究におけるさまざまなモデル、言語、アプローチの包括的な比較分析を提供します。特に、In-Context LearningよりFine-Tuningが優れた性能を示すことを明らかにすることで、小型のモデルでも、業務特化微調整の重要性を強調する。 LLaMA3.1-8b-Instruct、Mistral-Nemo-Instruct-2407、Qwen2.5-7B-Instructなど、最大規模のモデルを含む実験結果を提示する。
Limitations:この研究で扱われたデータセットと言語の範囲はすべての可能性を網羅することはできません。特定の言語やデータセットに偏った結果が表示される可能性があります。新しいタイプの偽のニュースや有害なコンテンツの一般化パフォーマンスには追加の研究が必要です。
👍