Rapid Word Learning Through Meta In-Context Learning
Created by
Haebom
作者
Wentao Wang, Guangyuan Jiang, Tal Linzen, Brenden M. Lake
概要
本論文は、少数の例だけで新しい単語を素早く学習し、さまざまな文脈で柔軟に使用する人間の能力に着目し、言語モデルの数回の試みだけで単語学習能力を向上させる新しい方法であるMinnow(Meta-training for IN-context learNing Of Words)を提示します。 Minnowは、特別なプレースホルダトークンを使用して新しい単語の使用例を生成するように言語モデルをトレーニングする方法です。さまざまな新しい単語の訓練を繰り返して、一般的な単語学習能力を開発します。実験の結果、子供向け言語データを使用してMinnowで言語モデルを最初から学習すると、はるかに多くのデータで事前訓練された大規模言語モデル(LLM)に匹敵する強力な数回の試みで単語学習能力が得られることがわかります。さらに、事前に訓練されたLLMにMinnowを適用して微調整すると、新しい単語の区別、新しい単語の通貨カテゴリの識別、およびいくつかの文脈の例に基づいて、新しい用途と定義の生成能力が向上することがわかります。これは、Minnowのデータ効率と単語学習の課題における言語モデルのパフォーマンスを向上させる可能性を強調しています。