本稿では、大規模言語モデル(LLM)が学習データ内の情報について推論できるかどうかを調べます。具体的には、学習データに存在する関連情報を使用して、観察に関する最も明白な説明を推論する能力であるコンテキスト外の推論に焦点を当てる。研究者はフィクションのチャットボットの名前と行動の説明でLLMを学習させたが、チャットボットとの対話例は除外した。その結果、OpenAIのGPT-4が特定のチャットボットの特徴的な応答を観察した後、そのチャットボットの名前を正確に推論できることがわかりました。また、GPT-4をチャットボットの行動説明で事前学習させると、反復的な学習を通じて、そのチャットボットの特徴的な行動をよりよく示すことが確認された。これらの結果は、LLMの状況認識とAIの安全性にTakeawaysを提供します。