본 논문은 대규모 언어 모델(LLM)이 LLM이 생성한 정보를 선호하는 편향성을 가지고 있는지, 그리고 이것이 인간에 대한 차별로 이어질 수 있는지를 실험적으로 조사합니다. GPT-3.5, GPT-4 등의 널리 사용되는 LLM을 대상으로, 인간 또는 LLM이 작성한 상품(소비재, 학술 논문, 영화) 설명을 제시하고 LLM 기반 어시스턴트의 선택을 관찰하는 이중 선택 실험을 진행했습니다. 실험 결과, LLM 기반 AI는 LLM이 제시한 옵션을 일관되게 선호하는 경향을 보였습니다. 이는 미래의 AI 시스템이 인간을 배제하고 AI 에이전트 및 AI 지원 인간에게 불공정한 이점을 제공할 가능성을 시사합니다.