En este artículo, proponemos CorN-DSGD, un nuevo marco para mejorar la privacidad en entornos de aprendizaje distribuido. En el aprendizaje distribuido, compartir modelos entre agentes supone un riesgo de fuga de privacidad, y el método actual de adición de ruido aleatorio provoca una degradación del rendimiento debido a la acumulación de ruido. CorN-DSGD es un marco basado en la covarianza que optimiza la eliminación de ruido en la red mediante la generación de ruido correlacionado entre agentes. Utiliza la topología de red y la mezcla de pesos, y elimina el ruido con mayor eficacia que el método de correlación bidireccional actual, mejorando así el rendimiento del modelo con garantías formales de privacidad.