[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Symbolic Mixture-of-Experts: Adaptive Skill-based Routing for Heterogeneous Reasoning

Created by
  • Haebom

作者

Justin Chih-Yao Chen, Sukwon Yun, Elias Stengel-Eskin, Tianlong Chen, Mohit Bansal

概要

本稿では、大規模なさまざまなタスクを効率的に処理するために、既存の事前訓練された専門家LLM(Large Language Models)を組み合わせる方法について説明します。既存の作業単位のエキスパート選択方法の限界を克服するために、インスタンスレベルで適応的なエキスパートの混合を可能にするSymbolic-MoEフレームワークを提案します。 Symbolic-MoEは、数学の代数、生物医学推論の分子生物学など、スキルに焦点を当てた細かいアプローチで関連する専門家LLMを動的に選択します。選択された各専門家は独自の推論を生成し、その結果はさまざまな推論結果を統合する能力に基づいて選択された集計器を介して最終的な高品質の応答として合成されます。モデルのロードとアンロードの高い計算オーバーヘッドの問題を解決するために、インスタンスを割り当てられたエキスパートベースにグループ化するデプロイメント戦略を実装して効率を高めました。さまざまなベンチマーク(MMLU-Pro、GPQA、AIME、MedMCQA)でGPT4o-miniおよびマルチエージェントアプローチよりも優れた性能を示し、最高のマルチエージェント基準モデルより平均8.15%向上したパフォーマンスを達成しました。さらに、新しい作業の一般化性能に優れており、高価なマルチラウンドディスカッションは不要で、ディスカッションベースの基準モデルよりも優れたパフォーマンスを示しました。

Takeaways、Limitations

Takeaways:
インスタンスレベルのエキスパート選択によるLLMのパフォーマンス向上の可能性の提示
スキルベースの専門家選択戦略の有効性の証明
効率的な配置戦略による計算オーバーヘッドの削減
さまざまなベンチマークで既存の最高性能モデルを上回る性能を達成
マルチラウンドディスカッションなしで優れたパフォーマンスを達成し、一般化パフォーマンスを向上
Limitations:
提案された方法の拡張性に関するさらなる研究の必要性(より多くのエキスパートモデルを使用する場合の性能と効率)
特定のスキルの専門性評価基準の客観性と信頼性の追加検証が必要
さまざまな種類のタスクの一般化パフォーマンスをより深く評価する必要がある
アグリゲータ選択戦略の最適化に関する追加の研究が必要
👍