Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

LLM Web Dynamics: Tracing Model Collapse in a Network of LLMs

Created by
  • Haebom

作者

Tianyu Wang, Akira Horiguchi, Lingyou Pang, Carey E. Priebe

概要

本論文は、公開インターネットの合成データ使用量の増加が大規模言語モデル(LLM)トレーニングのデータ使用効率を高めたが、モデル崩壊の潜在的な脅威は十分に研究されていないことを指摘しています。従来の研究は、主に単一のモデル設定でモデルの崩壊を調査するか、統計的代用物にのみ依存していました。この研究では、ネットワークレベルでモデルの崩壊を調査するための効率的なフレームワークであるLLM Web Dynamics(LWD)を紹介します。検索拡張生成(RAG)データベースを使用してインターネットをシミュレートすることで、モデル出力の収束パターンを分析し、相互作用するガウス混合モデルとの推論を通じて、これらの収束の理論的保証を提供します。

Takeaways、Limitations

Takeaways:ネットワークレベルでLLMモデルの崩壊を分析するための効率的なフレームワーク(LWD)を提示します。 RAGデータベースを利用したインターネットシミュレーションによるモデル出力の収束パターン解析が可能ガウス混合モデル推論による理論的根拠の提示
Limitations:現時点では、RAGデータベースを使用したインターネットシミュレーションの現実世界との精度の検証がさらに必要になる可能性があります。ガウス混合モデル推論の適用範囲と限界に関する明確な議論が必要かもしれません。さまざまなLLMアーキテクチャとトレーニングデータの一般化可能性検証が必要です。
👍