Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Enhancing Model Privacy in Federated Learning with Random Masking and Quantization

Created by
  • Haebom

作者

Zhibo Xu, Jianhao Zhu, Jingwen Xu, Changze Lv, Zisu Huang, Xiaohua Wang, Muling Wu, Qi Qian, Xiaoqing Zheng, Xuanjing Huang

概要

本論文は、既存の連合学習がデータのプライバシー保護に焦点を当てている一方で、大規模言語モデル(LLM)の登場によって知的財産(IP)保護の重要性がさらに高まったことを指摘しています。したがって、機密データと独自モデルの両方を保護するための新しい連合学習アプローチが必要です。そこで、本論文ではFedQSNという新しい連合学習方法を提案する。 FedQSNはモデルパラメータの一部をランダムマスキングとして非表示にし、残りのパラメータを量子化してサーバーがクライアントに送信するモデルがプライバシー保護プロキシになるようにします。さまざまなモデルと作業の実験結果から、FedQSNは、従来の方法と比較してモデルパラメータ保護を強化しながら、連合学習環境で強力なモデルパフォーマンスを維持することを示しています。

Takeaways、Limitations

Takeaways:
大規模言語モデルの連合学習における知的財産保護のための新しいアプローチを提示します。
モデルパラメータのプライバシー保護を強化する効果的な方法を提示します。
既存の連合学習のパフォーマンスを低下させることなくプライバシーを向上させることができることを実験的に証明します。
Limitations:
提案された方法の安全性の理論的分析が不足している。
さまざまな攻撃シナリオに対する耐性評価がさらに必要です。
実験結果は特定のモデルと作業に限定され、一般化の可能性に関するさらなる研究が必要です。
👍