ディープラーニング技術の発展により、様々な分野でオープンソースモデルが登場するにつれて、モデルマージを通じて強みを結合しようとする試みがなされている。従来のマージ方式は、パラメータの衝突によって特定のドメイン操作でパフォーマンスが低下するという問題がありました。本稿では、この問題を解決するために、最も重要なニューロンを選択的にマージするルータベースのフレームワークであるMIN-Mergingを提案します。 CVおよびNLPのベンチマーク実験の結果、MIN-Mergingはインドメイン操作で一貫した性能向上を示し、out-of-domainタスクでも事前訓練されたモデルの一般化能力を維持することが示された。