Cet article offre un aperçu général de l'explicabilité et de l'interprétabilité des modèles d'apprentissage profond et d'apprentissage automatique largement utilisés en traitement du langage naturel et en recherche d'information. Plus précisément, nous examinons les approches appliquées aux plongements de mots, à la modélisation de séquences, aux modules d'attention, aux transformateurs, à BERT et au classement de documents. Nous présentons les tendances de recherche visant à accroître la transparence des modèles d'apprentissage profond et d'apprentissage automatique, souvent opaques en raison de leur structure non linéaire, et suggérons des pistes de recherche futures.