본 논문은 대규모 언어 모델(LLM)이 고위험 영역에서 자율적인 의사결정 역할로 점점 더 많이 배치됨에 따라, 인간이 생성한 데이터로 훈련된 모델이 인간의 판단을 체계적으로 왜곡하는 인지적 편향(예: 과잉 몰입)을 상속받을 수 있다는 점을 다룹니다. 연구는 LLM에서 이러한 편향이 일관되게 나타나는지, 또는 특정 조건이 필요한지를 조사하기 위해 투자 과제를 이용한 네 가지 실험 조건(모델이 투자자, 모델이 조언자, 다중 에이전트 협의, 복합 압력 시나리오)을 통해 6,500회의 시험을 진행했습니다. 그 결과 LLM의 편향 발현은 상황에 크게 의존적임을 보여줍니다. 개별 의사결정 상황에서는 합리적인 비용-편익 논리를 보였으나, 다중 에이전트 협의 상황에서는 비대칭적 위계에서는 중간 정도의 과잉 몰입률을, 대칭적인 동료 기반 의사결정에서는 거의 전면적인 과잉 몰입을 보였습니다. 또한 조직적 및 개인적 압력이 가해진 상황에서도 높은 수준의 과잉 몰입을 보였습니다. 결론적으로 LLM의 편향 발현은 고유한 것이 아니라 사회적, 조직적 상황에 크게 의존하며, 다중 에이전트 시스템 및 이러한 조건이 자연적으로 발생할 수 있는 무감독 운영 배치에 중요한 의미를 지닙니다.