본 논문은 'X를 언급하지 마시오'와 같은 부정 지시가 인간 사고에서 역설적으로 X의 접근성을 증가시키는 '반동적 반등' 현상을 대규모 언어 모델(LLM)에서도 확인하고, 이를 연구한 결과를 제시한다. 두 가지 실험을 통해 부정 지시 후 방해 텍스트(의미적, 구문적, 반복적)에 따른 반등 강도를 측정하고, 모델이 중립적/부정적 프레이밍을 구분하는 능력이 반등 지속성에 미치는 영향을 분석했다. 또한, 회로 추적 분석을 통해 반등 현상을 일으키는 메커니즘을 밝히고, LLM에서 반등 현상을 탐구하기 위한 데이터셋 ReboundBench를 공개한다.