本論文では、分散学習環境でプライバシーを強化するための新しいフレームワークであるCorN-DSGDを提案します。分散学習では、エージェント間のモデル共有はプライバシー漏洩のリスクを引き起こし、従来のランダムノイズの追加方法はノイズの蓄積に伴うパフォーマンス低下の問題を引き起こします。 CorN-DSGDは、エージェント間の相関ノイズを生成してネットワーク全体のノイズ除去を最適化する共分散ベースのフレームワークです。これはネットワークトポロジとミキシングの重みを利用し、従来の双方向相関方式よりも効果的にノイズを排除し、正式なプライバシー保証の下でモデルのパフォーマンスを向上させます。