Este artículo ofrece una visión general de la investigación reciente sobre aprendizaje profundo y composicionalidad, una propiedad fundamental de la inteligencia humana, dirigida a lectores de filosofía, ciencias cognitivas y neurociencia. Centrándonos en los modelos lingüísticos a gran escala (LLM), analizamos dos enfoques para lograr la generalización combinatoria, lo que permite un potencial expresivo infinito a partir de una experiencia de aprendizaje limitada: (1) sesgo inductivo estructural y (2) metaaprendizaje. Argumentamos que el proceso de preentrenamiento de los LLM puede entenderse como un tipo de metaaprendizaje que permite a las redes neuronales profundas (DNN) lograr la generalización combinatoria. A continuación, analizamos las implicaciones de estos hallazgos para el estudio de la composicionalidad en la cognición humana y las futuras líneas de investigación.