Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Your Compiler is Backdooring Your Model: Understanding and Exploiting Compilation Inconsistency Vulnerabilities in Deep Learning Compilers

Created by
  • Haebom

作者

Simin Chen, Jinjun Peng, Yixin He, Junfeng Yang, Baishakhi Ray

概要

ディープラーニング(DL)コンパイラは最新のDLシステムのコアインフラストラクチャで、ベンダー固有のライブラリを超えて柔軟性と拡張性を提供します。この研究は、公式で修正されていないコンパイラがコンパイル中にモデルの意味論を変更し、隠されたバックドアを導入する可能性があるという設計の根本的な脆弱性を発見しました。敵対的環境と自然環境の両方で研究が行われた。敵対的な環境では、コンパイル前にはトリガーが何の影響もありませんが、コンパイル後に効果的なバックドアになるポジティブモデルを作成しました。 6つのモデル、3つの商用コンパイラ、2つのハードウェアプラットフォームでテストした結果、この攻撃はトリガされた入力で100%の成功率を示し、正常な精度を維持し、最先端の検出器としても検出されませんでした。この攻撃は、コンパイラ、ハードウェア、および浮動小数点設定全体で一般化されました。自然環境では、上位100個のHuggingFaceモデル(2億2千万回以上のダウンロードモデルを含む)を分析し、31個のモデルで自然トリガーを発見した。これは、敵対的な操作なしでコンパイラがリスクを引き起こす可能性があることを示しています。

Takeaways、Limitations

Takeaways:
修正されていないDLコンパイラがモデルセマンティクスを秘密に変更できるという新しい脅威を発見しました。
DLコンパイラ設計の固有のセキュリティリスクを初めて公開し、安全で信頼できるMLのための新しい方向性を提示しました。
敵対的な攻撃は、コンパイラがバックドアを挿入できることを実証し、これは広範なコンパイラ、ハードウェア、浮動小数点設定で一般化されています。
自然環境で自然トリガーを発見し、敵対的な操作がなくてもコンパイラがリスクを引き起こす可能性があることを示しました。
Limitations:
この論文のLimitationsは明示的に言及されていません。 (論文内容から推論すべき)
👍