Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Sparsity Outperforms Low-Rank Projections in Few-Shot Adaptation

Created by
  • Haebom

作者

Nairouz Mrabah, Nicolas Richet, Ismail Ben Ayed, Eric Granger

概要

この論文では、Vision-Language Models(VLM)の新しいドメイン適応プロセスで発生する過適合および計算上の制約を解決するための新しいSparse Optimization(SO)フレームワークを提案します。従来の低次元再パラメータ化方法とは異なり、SOはパラメータの高次元希少性を利用して少数のパラメータのみを動的に更新します。具体的には、「局所的希少性とグローバル密度」、「局所的ランダム性とグローバル重要性」の2つのパラダイムを導入することで、過適合を軽減し、低データ環境で安定した適応を保証します。 11のさまざまなデータセットの実験の結果、SOは最先端の数ショット適応性能を達成しながらメモリオーバーヘッドを減らすことを示しました。

Takeaways、Limitations

Takeaways:
低データ環境でVLMのドメイン適応性能を向上させるための効果的なSOフレームワークの提示。
従来の低次元法より効率的なメモリ使用量と計算コストの削減
「局所的な希少性とグローバルな密度」、「局所的なランダム性とグローバルな重要性」という新しいパラダイム提示。
さまざまなデータセットで最先端のパフォーマンスを実現。
Limitations:
提案されたSOフレームワークのハイパーパラメータチューニングの詳細な説明の欠如。
さまざまなVLMアーキテクチャの一般化パフォーマンス検証が必要です。
大規模データセットの適用とパフォーマンス評価の欠如。
👍