Este artículo evalúa la capacidad de los modelos de lenguaje a gran escala (LLM) para explicar sus procesos de toma de decisiones mediante explicaciones semiempíricas (SCE) autogeneradas. Las SCE son explicaciones que modifican las entradas para alterar los resultados previstos. Nuestros resultados muestran que los LLM generan SCE válidos, pero no generan modificaciones mínimas, lo que proporciona poca información sobre los procesos de toma de decisiones del modelo. Específicamente, cuando se les pide que generen SCE con modificaciones mínimas, tienden a realizar modificaciones excesivamente pequeñas que no alteran los resultados previstos. En múltiples LLM, conjuntos de datos y entornos de evaluación, observamos un equilibrio entre validez y minimalidad. Por lo tanto, concluimos que las SCE no son una herramienta eficaz de explicabilidad y pueden dar lugar a malentendidos sobre el comportamiento del modelo. Implementar LLM en situaciones de alto riesgo requiere considerar el impacto de las autoexplicaciones poco fiables en las decisiones posteriores.