Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Teaching the Teacher: Improving Neural Network Distillability for Symbolic Regression via Jacobian Regularization

Created by
  • Haebom

作者

Soumyadeep Dhar, Kei Sen Fong, Mehul Motani

概要

この論文では、大規模なニューラルネットワークを単純かつ人間が理解できる記号式で蒸留する方法を提案します。従来の方法では、複雑なニューラルネットワークで学習された関数がシンボル発見に適していないため、精度の低い学生モデルを生成するという問題があります。これを解決するために、この論文は、事前に訓練されたニューラルネットワークを受動的に蒸留するのではなく、ヤコビアンベースの正規化を導入して、「教師」ニューラルネットワークが正確であるだけでなく、本質的に滑らかで蒸留に適した関数を学習するように導く新しいトレーニングパラダイムを提示します。さまざまな実際の回帰ベンチマークに対する実験を通じて提案された方法の効果を実証し、各問題に対する正規化強度を最適化し、標準蒸留パイプラインと比較して最終蒸留シンボルモデルの$R^2$スコアを平均120%(相対的に)向上させるとともに、教師の予測精度を維持します。結論として、この研究は、複雑なニューラルネットワークから抽出された解析可能なモデルの精度を大幅に向上させる実用的で原則的な方法を提示します。

Takeaways、Limitations

Takeaways:
ヤコビアンに基づく正規化は,ニューラルネットワーク蒸留過程におけるシンボルモデルの精度を大幅に改善できることを示した。
複雑なニューラルネットワークから人が理解できる解釈可能なモデルを効果的に抽出する新しい方法を紹介します。
実際の問題に適用可能な実用的な方法論を提示する。
Limitations:
提案された方法の効果は、各問題に対する正規化強度の最適化に依存し、最適化プロセス自体が追加の計算コストを引き起こす可能性があります。
さまざまなタイプのニューラルネットワークとデータセットの一般化パフォーマンスに関する追加の研究が必要です。
ヤコビアンベースの正規化の理論的背景の詳細な分析が必要な場合があります。
👍