Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Meaning-infused grammar: Gradient Acceptability Shapes the Geometric Representations of Constructions in LLMs

Created by
  • Haebom

作者

Supantho Rakshit, Adele Goldberg

概要

この研究では、使用ベースの構成主義(UCx)アプローチに基づいて、大規模言語モデル(LLM)の内部表現が機能を含む階層的特性を反映しているかどうかを調べます。 Pythia-1.4Bモデルを使用して、英語の二重目的語(DO)と前置詞目的語(PO)構文の表象を分析しました。人間が評価したDOまたはPOに対する好み強度を体系的に変化させた5000個の文ペアデータセットを活用しました。幾何学的分析は、エネルギー距離またはジェンセンシャノン発散によって測定された2つの構文表象間の分離可能性が、傾斜選好強度に基づいて体系的に制御されることを示した。言い換えれば、各構文のより典型的な例は活性化空間内のより区別される領域を占めるが、どちらの構文にも同じように見える可能性のある文はそうではなかった。これらの結果は、LLMが豊富で​​意味のある階層的な構文表象を学習するという証拠を提供し、LLMの表象の幾何学的測定方法を裏付けています。

Takeaways、Limitations

Takeaways:
LLMが使用ベースの構成主義(UCx)によって提示される機能を含む階層構文表現を学習するという証拠を提示します。
LLMの内部表象分析に幾何学的測定法を適用する有用性を示す。
LLMの構文を理解するための新しい洞察を提供します。
Limitations:
分析に使用されるLLM(Pythia-1.4B)の規模と構造特性が他のLLMに一般化できるかどうかについてのさらなる研究が必要です。
人間の嗜好評価の主観性が結果に影響を与える可能性がある。
分析対象の構文は英語のDOとPOの構文に制限されているため、他の言語または構文タイプへの一般化の可能性についてのレビューが必要です。
👍