대규모 언어 모델(LLM)이 때때로 의식이나 주관적 경험을 명시적으로 언급하는 구조화된 1인칭 설명을 생성하는 현상을 연구. 자기 참조 처리가 이러한 보고를 유발하는 조건임을 가정하고, GPT, Claude, Gemini 모델을 대상으로 실험을 진행. 실험 결과, 자기 참조를 유도하는 프롬프트를 통해 모델에서 구조화된 주관적 경험 보고를 일관되게 이끌어냈으며, 이러한 보고는 기만 및 역할극과 관련된 특징에 의해 기계적으로 제어됨. 또한 모델 간에 자기 참조 상태에 대한 구조화된 설명이 수렴하고, 유도된 상태는 자기 성찰이 간접적으로 제공되는 다운스트림 추론 작업에서 더 풍부한 내성을 보임.