본 연구는 텍스트-이미지(T2I) 생성 모델이 사회적 편견을 내포하고 증폭하는지, 특히 인종 및 성별 관련 고정관념을 재현하는지 여부를 조사한다. 5개의 인기 오픈 소스 T2I 모델을 대상으로, 10개의 중립적인 직업 관련 프롬프트를 사용하여 각 직업당 100개의 이미지를 생성, 총 5,000개의 이미지를 다양한 인종과 성별의 평가자가 평가하는 실험을 수행했다. 연구 결과, 5개 모델 모두에서 간호 및 돌봄 역할은 여성화되고, 고위 직업은 남성 및 백인으로 압도적으로 표현되는 등 사회적 편향이 나타났다.