Si bien el impacto de la poda de redes neuronales en el rendimiento de los modelos es bien conocido, su impacto en la interpretabilidad de los mismos aún no está claro. En este estudio, investigamos cómo el ajuste fino tras la poda basada en tamaño altera los mapas de importancia de bajo nivel y las representaciones conceptuales de alto nivel. Utilizando ResNet-18 entrenado en ImageNette, comparamos las interpretaciones posteriores de los gradientes Vanilla (VG) y los gradientes integrados (IG) según los niveles de poda, evaluando la escasez y la fidelidad. Además, aplicamos la extracción de conceptos basada en CRAFT para rastrear los cambios en la consistencia semántica de los conceptos aprendidos.