Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Robustness is Important: Limitations of LLMs for Data Fitting

Created by
  • Haebom

作者

Hejia Liu, Mochen Yang, Gediminas Adomavicius

概要

本稿では、大規模言語モデル(LLM)をデータ適合および予測生成に使用することの脆弱性について説明します。 LLMはさまざまなタスクで競争力のある予測パフォーマンスを示していますが、タスクとは無関係のデータ表現の変化(変数名の変更など)に予測結果が大きく左右される脆弱性があることを明らかにしています。これは、in-context learning と supervised fine-tuning の両方で、close-weight と open-weight LLM の両方に現れる現象であり、open-weight LLM のアテンションメカニズム分析によって特定の位置のトークンに過度の集中が生じることを確認しました。データ適合のために特別に訓練されたTabPFNなどの最先端のモデルでさえ、これらの脆弱性では自由ではありません。したがって、現在のLLMは、原則的なデータ適合ツールとして使用するための基本的なレベルの堅牢ささえ不足しています。

Takeaways、Limitations

Takeaways: LLMをデータ適合に使用するときに、ジョブとは無関係のデータ表現の変化に対する脆弱性を認識する必要があることを強調します。 LLMの予測性能に対する信頼性を高めるためには、これらの脆弱性を解決する追加の研究が必要であることを示唆している。データ表現の堅牢性を考慮した新しいLLM設計と訓練方法の必要性を提起した。
Limitations:この研究は特定のLLMとデータセットの実験結果に基づいているため、すべてのLLMとすべての状況に一般化できるかどうかは追加の研究が必要です。タスクとは無関係な変化に対する脆弱性の根本原因の完全な説明は提供していません。脆弱性を軽減するための具体的な解決策はありません。
👍