Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

FW-Merging: Scaling Model Merging with Frank-Wolfe Optimization

Created by
  • Haebom

作者

Hao Mark Chen, Shell Xu Hu, Wayne Luk, Timothy Hospedales, Hongxiang Fan

概要

この論文は、マルチタスク学習(MTL)のためのデータ効率的なアプローチであるモデルマージの限界を解決するために、フランクウォルフマージング(FW-Merging)と呼ばれる新しいアプローチを提示します。既存のモデルのマージ方法論がさまざまなモデルソースと複数のモデルをマージするときにスケーラビリティに問題がある問題を解決するために、FW-Mergingは制約最適化の問題でモデルのマージを定式化します。 Frank-Wolfe最適化に触発され、目標関数を線形近似し、関連性の高いモデルを選択して繰り返しマージする方法を使用します。 FW-Mergingは、既存のマージ方法と統合してパフォーマンスを向上させることができ、さまざまなモデルソースに適用可能でメモリオーバーヘッドが一定であるという利点を持っています。

Takeaways、Limitations

Takeaways:
さまざまなモデルソースに適しており、モデルや作業情報が部分的に知られている状況でも有効です。
多数のモデルをマージしても安定した性能を示し、スケーラビリティに優れています。
既存のマージ方法と統合して、パフォーマンスをさらに向上させることができます。
データ駆動型マージ方法とは異なり、一定のメモリオーバーヘッドを維持します。
最先端のモデルマージ技術よりも優れた性能を発揮します。
Limitations:
論文に具体的なLimitationsは記載されていない。
👍