Cet article offre un aperçu des recherches récentes en apprentissage profond sur la compositionnalité, une propriété fondamentale de l'intelligence humaine, à l'intention des lecteurs en philosophie, sciences cognitives et neurosciences. En nous concentrant sur les modèles de langage à grande échelle (MLH), nous abordons deux approches pour parvenir à une généralisation combinatoire, permettant une puissance expressive infinie à partir d'une expérience d'apprentissage limitée : (1) le biais inductif structurel et (2) le méta-apprentissage. Nous soutenons que le processus de pré-apprentissage des MLH peut être compris comme une forme de méta-apprentissage, permettant aux réseaux de neurones profonds (RND) de réaliser une généralisation combinatoire. Nous discutons ensuite des implications de ces résultats pour l'étude de la compositionnalité en cognition humaine et des orientations de recherche futures.