Este artículo investiga si los modelos de lenguaje a gran escala (LLM) pueden realizar inferencias sobre la información contenida en sus datos de entrenamiento. Específicamente, nos centramos en la abducción fuera de contexto, la capacidad de inferir la explicación más plausible para una observación utilizando información relevante presente en los datos de entrenamiento. Los investigadores entrenaron los LLM con los nombres y descripciones de comportamiento de chatbots ficticios, excluyendo ejemplos de conversaciones con ellos. Descubrieron que el GPT-4 de OpenAI podía inferir con precisión el nombre del chatbot tras observar sus respuestas características. Además, al preentrenarlo con las descripciones de comportamiento del chatbot, GPT-4 demostró que podía capturar mejor los comportamientos característicos del chatbot mediante entrenamiento repetido. Estos resultados proporcionan información valiosa sobre la conciencia contextual y la seguridad de la IA de los LLM.