本論文は、ニューラルネットワークの圧縮性(ニューロンレベルの散乱性、スペクトル的圧縮性など)と敵対的攻撃に対する堅牢性との間の相互作用の理論的分析と実験的検証を提供します。圧縮されたニューラルネットワークは、表現空間に少数の高感度方向を誘導し、これは敵対的な攻撃者が効果的な妨害を生成するために悪用される可能性があることを明らかにします。これは、$L_\infty$と$L_2$の堅牢性に対する簡単で有益な境界を提示し、圧縮方法(規制、構造的偏向、暗黙の学習力学など)に関係なく脆弱性が発生することを示しています。合成と実際の作業の実験的評価によって理論的予測を確認し,敵対的訓練と転移学習においてもこの脆弱性が持続し,普遍的な敵対的妨害の出現に寄与することを示した。結論として、構造的圧縮性と堅牢性との間の基本的な緊張関係を明らかにし、効率的で安全なモデル設計のための新しい方向性を提示します。