Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Pre-training Limited Memory Language Models with Internal and External Knowledge

Created by
  • Haebom

作者

Linxi Zhao, Sofian Zalouk, Christian K. Belardi, Justin Lovelace, Jin Peng Zhou, Ryan Thomas Noonan, Dongyoung Go, Kilian Q. Weinberger, Yoav Artzi, Jennifer J. Sun

概要

ニューラル言語モデルはブラックボックスであり、言語パターンと現実的な知識が多数の不透明なパラメータに分散しています。このエンタングルエンコーディングは、特定の事実を確実にチェック、確認、または更新するのを困難にします。本論文では,事前訓練中に事実的知識を暗記するのではなく,外部データベースとして外部に格納するLimited Memory Language Models(LMLM)を紹介する。著者は、事前訓練アプローチを介して外部から検索された事実値を訓練損失から戦略的にマスクし、モデルがモデルの重みに依存するのではなく目標照会を実行するように学習する。実験の結果、LMLMは標準ベンチマークではるかに大きいLLMと比較して競争力のあるパフォーマンスを達成しながら、明示的、編集可能で検証可能な知識ベースという利点を提供することを示しました。

Takeaways、Limitations

Takeaways:
LMLMは外部データベースを活用して事実的な知識を明示的に管理し、モデルの暗記依存性を減らし、性能を維持しながらも知識の修正、検証、管理を容易にする。
LMLMは、より小さな規模のモデルでも競争力のある性能を達成することができ、計算効率を向上させることができます。
Limitations:
本稿ではLimitationsへの直接的な言及はありません。 (推論によれば、外部データベースの品質とアクセシビリティへの依存性、外部データベースとモデル間の相互作用、および統合に関するさらなる研究の必要性などを考えることができます。)
👍