この論文は、論理形式に基づく言語モデル(LFLM)がテキストベースのモデルよりもデータ効率が高いという主張を提示します。これを証明するために、論理形式のグラフ表現に基づいて、事前訓練された言語モデルであるGFoLDS(Graph-based Formal-Logical Distributional Semantics)プロトタイプを紹介します。実験の結果、LFLMsはモデルに固有の基本的な言語知識を活用して複雑なパターンをより迅速に学習できることを示しています。同じデータで事前トレーニングされたテキストベースのTransformer LM(BERT)と比較して、GFoLDSはサブタスクで圧倒的に優れたパフォーマンスを示しました。さらに、モデルのパフォーマンスは、追加のパラメータと事前トレーニングデータに従って拡張される可能性が高く、実際のアプリケーションでLFLMの実現可能性を示しています。