Este artículo aborda la cuestión de la responsabilidad en los sistemas de IA modernos, que se desarrollan en múltiples etapas (preentrenamiento, ajuste y adaptación/alineación). Abordamos el "problema de atribución", que rastrea el grado de responsabilidad de cada etapa en el éxito o fracaso de un modelo implementado, y proponemos un marco general para responder a preguntas contrafácticas sobre cómo habría cambiado el comportamiento del modelo si no se hubiera actualizado una etapa específica. En este marco, presentamos un estimador que cuantifica eficientemente la efectividad de cada etapa considerando aspectos clave de la dinámica de optimización del modelo, como las programaciones de la tasa de aprendizaje, el momentum y la disminución del peso, así como los datos, sin requerir reentrenamiento del modelo. Demostramos que cuantificamos con éxito la responsabilidad de cada etapa en las tareas de clasificación de imágenes y detección de toxicidad textual, e identificamos y eliminamos correlaciones erróneas con base en los resultados de la atribución. Este enfoque proporciona una herramienta práctica para el análisis de modelos y representa un paso importante hacia el desarrollo de una IA más responsable.