대규모 언어 모델(LLM)이 실제 결정을 내리는 프레임워크에 통합되면서, 모델의 편향성을 확보하는 것이 중요해짐. 본 논문은 기존 편향성을 제거하는 것만으로는 충분하지 않다고 주장하며, 심리학적 패러다임을 사용하여 LLM이 본질적인 차이가 없는 인공 인구 집단에 대해 새로운 사회적 편향을 자발적으로 개발할 수 있음을 보임. 이러한 편향은 인간 참가자보다 덜 공정한 고도로 계층화된 작업 할당을 초래하며, 더 새롭고 큰 모델에서 더욱 악화됨. 탐색-활용 트레이드오프로 인해 발생하는 이러한 편향을 완화하기 위해 모델 입력, 문제 구조 및 명시적 조정을 타겟으로 하는 일련의 개입을 조사하며, 명시적으로 탐색을 장려하는 것이 가장 효과적으로 계층화를 줄인다는 것을 발견. 이는 편향을 완화하기 위한 더 나은 다면적 목표의 필요성을 강조하며, LLM이 단순히 인간의 사회적 편향을 반영하는 것이 아니라 경험을 통해 새로운 편향을 적극적으로 생성할 수 있음을 보여줌.