この論文は、大規模言語モデル(LLM)の幻覚現象の既存の理解(創造性と現実性のバランスの問題)が実際には不正確であることを実験的に証明します。大容量のランダムな数値データセットを暗記する実験と理論モデルにより、LLMの幻覚はトレーニング損失が特定のしきい値を超えると発生し、インターネット規模のデータトレーニングで一般的に発生する現象であることを示しています。既存の幻覚緩和技術(外部知識源の活用)の限界を指摘し、数百万のメモリ専門家を動的に検索する新しいサイケデリックモデルLamini-1を提案します。