本稿では、連合学習におけるクライアントとターゲットドメイン間のラベル分布の違い(ラベルシフト)によるパフォーマンス低下の問題を解決するために、FedPALSという新しいモデル集約方式を提案します。 FedPALSは、中央サーバー上のラベル分布情報を利用してターゲットドメインに合わせてモデル集計を調整することで、ラベルシフトが存在するさまざまなクライアントデータで堅牢な一般化パフォーマンスを実現します。連合確率的傾斜降下法の下で歪みのない更新を保証し、画像分類作業の広範な実験により、従来の方法よりも優れた性能を示すことを実証します。特に、クライアントのラベルが非常に不足している場合、既存の連合学習方法のパフォーマンスの低下が深刻に現れることを示し、FedPALSが提示するターゲットドメイン認識の集約の重要性を強調します。