Este artículo aborda la robustez adversarial en datos estructurados, un campo poco explorado en comparación con los dominios visual y lingüístico. Para ello, proponemos un novedoso ataque adversarial de caja negra basado en decisiones para datos intervenidos. Este ataque explora eficientemente espacios de características discretos y continuos con un acceso mínimo a oráculos, combinando la estimación de dirección sin gradiente y la búsqueda iterativa de límites. Experimentos exhaustivos demuestran que el método propuesto compromete con éxito prácticamente todo el conjunto de pruebas en diversos modelos, desde clasificadores clásicos de aprendizaje automático hasta pipelines basados en modelos de lenguaje (LLM) a gran escala. Cabe destacar que el ataque alcanza consistentemente una tasa de éxito superior al 90 % con un número reducido de consultas por instancia. Estos resultados resaltan la grave vulnerabilidad de los modelos intervenidos a las perturbaciones adversariales y subrayan la urgente necesidad de defensas más robustas en los sistemas de toma de decisiones del mundo real.