Cet article examine la robustesse des modèles d'apprentissage automatique (ML) pour la détection de la fraude par carte de crédit (CCFD). Plus précisément, nous étudions l'impact des attaques antagonistes sur les données tabulaires de transactions par carte de crédit. Si des recherches antérieures ont exploré les attaques antagonistes sur les données d'image, les recherches sur les données tabulaires en CCFD sont restées limitées. Dans cet article, nous utilisons une méthode d'attaque antagoniste basée sur le gradient pour attaquer les données tabulaires en boîte noire et en boîte blanche, et nous analysons les résultats. Les résultats expérimentaux démontrent que les données tabulaires sont vulnérables aux perturbations, même subtiles, et que les exemples antagonistes générés à l'aide d'attaques basées sur le gradient sont également efficaces contre les modèles non basés sur le gradient. Cela souligne la nécessité de développer des mécanismes de défense robustes pour les algorithmes CCFD.