本論文は、転移学習に現れる情報飽和ボトルネックを解明し、これを解決するための方策を提示します。移行学習は、さまざまなデータで事前訓練されたモデルを新しい課題に適用する手法ですが、事前訓練された機能が新しいデータセットに適用されるときに十分なパフォーマンスを保証できないという制限があります。論文では、事前訓練されたモデルが各構成課題に対して直接訓練されたモデルと性能を比較分析し、競争的な類似特徴を学習する過程で新しい特徴を学習できない情報飽和ボトルネックを発見します。この現象は、データの分布や順序などの要因の影響を受け、大規模なネットワークにのみ依存することが常に効果的ではないことを示唆しています。したがって、この論文は、新しいデータセットの一般化性能を向上させるためのより豊富な特徴表現を提案し、既存の方法と一緒に新しいアプローチを提示します。