본 논문은 대규모 언어 모델(LLM)에서 관찰되는 인지 편향이 표면적인 모방인지, 더 깊은 확률 변화인지를 밝히기 위해 앵커링 편향을 연구합니다. 앵커링 편향은 고전적인 인간 판단 편향으로, LLM의 내부 메커니즘과 기여도를 탐구하는 데 중점을 둡니다. 논문은 (1) 로그 확률 기반 행동 분석, (2) Shapley 값 기여 분석, (3) 앵커링 편향 민감도 점수를 활용하여 앵커링 효과를 측정합니다. Gemma-2B, Phi-2, Llama-2-7B에서 앵커링 효과가 확인되었으며, 앵커가 재가중치에 영향을 미침을 밝혔습니다. 또한 모델 규모에 따른 민감도 차이와 프롬프트 디자인에 따른 기여 효과의 변동성을 확인했습니다.