Este artículo examina la robustez de los modelos de aprendizaje automático (ML) para la detección de fraudes con tarjetas de crédito (CCFD). Específicamente, investigamos el impacto de los ataques adversarios en datos tabulares de transacciones con tarjetas de crédito. Si bien investigaciones previas han explorado los ataques adversarios en datos de imágenes, la investigación sobre datos tabulares en CCFD ha sido limitada. En este artículo, empleamos un método de ataque adversario basado en gradientes para atacar datos tabulares tanto en entornos de caja negra como de caja blanca y analizamos los resultados. Los resultados experimentales demuestran que los datos tabulares son vulnerables incluso a perturbaciones sutiles, y que los ejemplos adversarios generados mediante ataques basados en gradientes también son efectivos contra modelos no basados en gradientes. Esto resalta la necesidad de desarrollar mecanismos de defensa robustos para los algoritmos CCFD.