본 논문은 대규모 언어 모델(LLM)이 자율적 의사결정에서 방대한 행동 공간에서 옵션을 샘플링하는 과정에서 사용하는 휴리스틱을 연구합니다. 연구 결과, LLM의 샘플링 행동은 인간의 의사결정과 유사하게, 개념의 기술적 구성요소(통계적 규범을 반영)와 규범적 구성요소(LLM에 내재된 암묵적 이상)로 구성됨을 보여줍니다. 공중 보건, 경제 동향 등 다양한 실제 영역에서 통계적 규범에서 규범적 구성요소로의 샘플 편차가 일관되게 나타남을 보입니다. 또한, LLM의 개념 원형이 인간의 정상성 개념과 유사하게 규범적 규범의 영향을 받는다는 것을 보여줍니다. 사례 연구와 인간 연구와의 비교를 통해 실제 응용에서 LLM 출력에서 이상적인 값으로의 샘플 이동이 상당한 편향된 의사결정을 초래하고 윤리적 문제를 야기할 수 있음을 보여줍니다.