Cet article aborde le problème des fuites de données, qui résulte de l'accessibilité croissante de l'apprentissage automatique (ML) et de l'utilisation croissante d'interfaces intuitives ne nécessitant aucune connaissance spécialisée et reposant uniquement sur des approches par simple pression d'un bouton. Les fuites de données surviennent lorsque les données d'apprentissage contiennent des informations imprévues qui impactent les évaluations de performance des modèles, pouvant conduire à des estimations de performance erronées. Cet article catégorise les fuites de données en ML et explique comment elles se propagent dans les workflows ML dans des conditions spécifiques. De plus, nous étudions le lien entre les fuites de données et des tâches spécifiques, examinons leur occurrence dans l'apprentissage par transfert et comparons le ML inductif standard aux cadres de ML transférables. Enfin, nous soulignons l'importance de gérer les fuites de données pour des applications ML robustes et fiables.