본 논문은 대규모 언어 모델(LLM)에서 시스템 프롬프트의 위치가 모델의 행동과 출력에 미치는 영향을 분석합니다. 시스템 프롬프트는 사용자 입력보다 우선하는 사전 정의된 지시문으로, 모델의 일관성을 유지하는 데 사용됩니다. 하지만 여러 프롬프트가 중첩될 경우, 그 내용이 사용자에게는 보이지 않고, 예측하지 못한 부작용을 야기할 수 있습니다. 본 연구는 6개의 상용 LLM과 50개의 인구 통계 집단을 대상으로 시스템 프롬프트와 사용자 프롬프트에 인구 통계 정보를 배치했을 때 모델의 처리 방식을 비교 분석하여, 시스템 프롬프트의 위치에 따른 편향성을 밝힙니다. 이러한 편향은 사용자에게는 감지하거나 수정할 수 없는 표상적, 배분적, 그리고 잠재적 다른 형태의 편향 및 부정적 결과를 초래할 수 있습니다.