Bài báo này trình bày một góc nhìn và giải pháp mới cho vấn đề rò rỉ gradient xảy ra trong học liên kết (FL). Học liên kết hiện tại duy trì tính riêng tư bằng cách chỉ chia sẻ gradient mô hình trong khi vẫn giữ dữ liệu riêng tư cục bộ. Tuy nhiên, bản thân gradient có thể chứa thông tin nhạy cảm, gây ra nhiều lo ngại. Bài báo này cung cấp một phân tích lý thuyết về vấn đề rò rỉ gradient này và đề xuất một kỹ thuật phòng thủ mới giúp ngăn chặn rò rỉ gradient trong các cấu trúc mô hình tùy ý bằng cách sử dụng mô-đun khóa riêng tư. Phương pháp được đề xuất ngăn chặn việc tái tạo dữ liệu riêng tư bằng cách chỉ chia sẻ gradient bị khóa, đồng thời giảm thiểu sự suy giảm hiệu suất mô hình. Tính mạnh mẽ của phương pháp được đề xuất được kiểm chứng thông qua các thử nghiệm sử dụng nhiều mô hình và chuẩn mực khác nhau.