この論文は、多様な深層ニューラルネットワークアーキテクチャ(合成積、循環、自己主義)の共通点を希少行列乗算に統合する新しいフレームワークを提示します。合成積は上三角行列を介した一次変換、循環は下三角行列を介した段階的な更新、自己主義は三次テンソル分解で表されます。著者は、弱い仮定の下で標準CNN、RNN、Transformerレイヤーとの代数的同形性を証明し、画像分類、時系列予測、言語モデリング/分類操作の実験結果により、希少行列式が既存のモデル性能に匹敵するか上回り、類似またはより少ないエポック数に収束することを示しています。このアプローチは、アーキテクチャ設計をスパースパターン選択に簡素化し、GPU並列処理と従来の代数的最適化ツールの使用を可能にします。