ディープニューラルネットワーク(DNN)はさまざまなタスクで優れたパフォーマンスを発揮しますが、不必要に大きなモデルサイズ、高い計算要件、および大量のメモリスペースが必要です。 ODNsは、モデルの深さと作業の複雑さのバランスをとることで、これらの問題を解決します。具体的には、「漸進的深さ拡張」というNAS(Neural Architecture Search)に似たトレーニング戦略を提案します。この戦略は浅い深さから始まり、前のブロックが収束するにつれて深さを徐々に増加させ、目標精度に達するまでこのプロセスを繰り返します。 ODNs は、与えられたデータセットに最適な深さのみを使用して、重複レイヤーを削除します。これにより、将来のトレーニングと推論のコストを削減し、メモリスペースを削減し、計算効率を向上させ、エッジデバイスに簡単に展開できます。 MNISTとSVHNのResNet-18とResNet-34の最適な深さは、メモリスペースを最大98.64%と96.44%に減らし、99.31%と96.08%の競争力のある精度を維持します。