Dans cet article, nous étudions comment BERT, un modèle de langage basé sur Transformer, représente les syntagmes NPN (Nom-Préposition-Nom) anglais (par exemple, face à face, day to day) en s'appuyant sur la théorie de la grammaire de construction. Les syntagmes NPN sont des syntagmes relativement rares présentant des caractéristiques polysémiques. Nous construisons un corpus de données annoté sémantiquement (incluant les termes d'erreur) et l'utilisons pour entraîner et évaluer un classificateur de sondage explorant la représentation de BERT. Les résultats expérimentaux montrent que les plongements BERT contiennent des informations représentant le sens des syntagmes NPN et contiennent implicitement des connaissances sur les syntagmes NPN au-delà de simples indices syntaxiques ou lexicaux superficiels. En particulier, nous avons également confirmé leur sensibilité à la morphologie, ce qui fait qu'ils ne sont pas reconnus comme syntagmes NPN lorsque l'ordre des mots est modifié artificiellement.