본 연구는 대규모 언어 모델(LLM)이 문헌 추천 시 가짜 논문을 생성하는 문제에 대해, 인용 횟수가 환각(hallucination) 발생에 미치는 영향을 분석한다. GPT-4.1을 사용하여 20개의 컴퓨터 과학 분야에서 100개의 인용구를 생성하고 수동으로 검증했다. 인용 횟수를 모델의 훈련 데이터 중복성 지표로 간주하여, 인용 횟수가 많을수록 사실적 정확도가 높고, 약 1,000회 이상 인용된 논문은 거의 그대로 암기됨을 확인했다. 또한, 내용이 유사한 여러 고빈도 인용 논문 사이에서 기억 간섭이 발생함을 발견했다.