大規模言語モデル(LLM)の幻覚現象を検出することは、信頼を確保するために重要です。トークンレベルの検出はより細かい介入を可能にしますが、サイケデリックトークンシーケンス全体にわたるサイケデリック信号の分布はまだ研究されていません。 RAGTruthコーパスのトークンレベルのアノテーションを活用して、最初のサイケデリックトークンが後のトークンよりはるかに簡単に検出されることがわかりました。この構造的特徴はさまざまなモデルに現れ、最初のサイケデリックトークンがトークンレベルのサイケデリック検出で重要な役割を果たしていることを示唆しています。