Este artículo ofrece una visión general de la explicabilidad e interpretabilidad de los modelos de aprendizaje profundo y aprendizaje automático, ampliamente utilizados en el procesamiento del lenguaje natural y la recuperación de información. En concreto, examinamos enfoques aplicados a la incrustación de palabras, el modelado de secuencias, los módulos de atención, los transformadores, el BERT y la clasificación de documentos. Presentamos las tendencias de investigación destinadas a aumentar la transparencia de los modelos de aprendizaje profundo y aprendizaje automático, que suelen ser opacos debido a su estructura no lineal, y sugerimos futuras líneas de investigación.