본 논문은 생성형 AI의 텍스트-이미지(T2I) 생성 모델이 성별, 인종, 문화적 편견을 재현하고 증폭시키는 윤리적 문제점을 다룬다. 이를 해결하기 위해 이론에 기반한 편향 감지 기준과 사회적 고정관념 지수(SSI)를 제안하고, DALL-E-3, Midjourney-6.1, Stability AI Core 세 가지 주요 T2I 모델을 대상으로 지리문화적, 직업적, 형용사적 세 가지 범주에 걸쳐 100개의 질의를 사용하여 감사를 실시했다. 분석 결과, 초기 출력물은 성별 고정관념이 담긴 직업, 문화적 표식, 서구적 미적 기준 등의 고정관념적인 시각적 단서를 포함하는 경향이 있음을 밝혔다. LLM을 이용한 프롬프트 개선을 통해 편향을 상당히 줄였으며(SSI는 지리문화적 61%, 직업적 69%, 형용사적 51% 감소), 사용자 연구를 통해 AI 생성 편향 이미지에 대한 인식, 인지도, 선호도를 조사했다. 프롬프트 개선이 고정관념을 완화할 수 있지만, 문맥적 일관성을 제한할 수 있다는 핵심적인 긴장 관계를 발견했으며, 사용자들은 고정관념적인 이미지가 기대와 더 부합한다고 인식하는 경우가 많았다. 윤리적 편향 제거와 문맥적 관련성 사이의 균형을 맞출 필요성을 논하며, 실제 세계의 사회적 복잡성을 반영하면서도 세계적 다양성과 포용성을 지원하는 T2I 시스템의 필요성을 강조한다.