Este artículo analiza la inteligencia artificial explicable (XAI), que cobra cada vez mayor importancia en áreas cruciales para la toma de decisiones, como la medicina, las finanzas y el derecho. En particular, nos centramos en las explicaciones contrafácticas (CF), un enfoque fundamental de la XAI, para estudiar cómo proporcionar información práctica a los usuarios sugiriendo modificaciones mínimas en las características de entrada que diferencian los resultados del modelo. Señalamos que los métodos actuales de generación de CF tienen dificultades para equilibrar la proximidad, la diversidad y la robustez, y proponemos el marco DiCE-Extended, que mejora la robustez a la vez que mantiene la interpretabilidad mediante la integración de técnicas de optimización multiobjetivo para superar las limitaciones del marco de Explicaciones Contrafácticas Diversas (DiCE), que enfatiza la diversidad pero carece de robustez. Introducimos una nueva métrica de robustez basada en el coeficiente Dice-Sørenson y mejoramos el equilibrio entre proximidad, diversidad y robustez mediante el uso de componentes de pérdida ponderada (lambda_p, lambda_d, lambda_r). La validación experimental con conjuntos de datos de referencia, como COMPAS, Lending Club, German Credit y Adult Income, y múltiples backends de aprendizaje automático, como Scikit-learn, PyTorch y TensorFlow, demuestra que DiCE-Extended mejora la validez, la robustez y la alineación con los límites de decisión de los CF en comparación con DiCE estándar. Esto destaca el potencial de DiCE-Extended para generar CF más fiables e interpretables para aplicaciones de alto riesgo, lo que sugiere que futuras investigaciones podrían explorar técnicas de optimización adaptativa y restricciones específicas del dominio para mejorar aún más la generación de CF en escenarios reales.