Cet article examine si les modèles linguistiques à grande échelle (MLH) peuvent inférer des informations contenues dans leurs données d'entraînement. Plus précisément, nous nous intéressons à l'abduction hors contexte, c'est-à-dire la capacité à déduire l'explication la plus plausible d'une observation à partir des informations pertinentes présentes dans les données d'entraînement. Les chercheurs ont entraîné les LMH avec les noms et les descriptions comportementales de chatbots fictifs, excluant les exemples de conversations avec ces derniers. Ils ont constaté que le GPT-4 d'OpenAI pouvait déduire avec précision le nom du chatbot après avoir observé ses réponses caractéristiques. De plus, pré-entraîné avec les descriptions comportementales du chatbot, le GPT-4 a démontré qu'il pouvait mieux capturer les comportements caractéristiques du chatbot grâce à des entraînements répétés. Ces résultats fournissent des informations précieuses sur la connaissance contextuelle et la sécurité de l'IA des LMH.