본 논문은 생성형 AI 시스템의 출력에서 누가 어떻게 표현되는지를 고려하는 것이 생성형 AI 시스템의 피해를 인지하고 완화하는 데 중요함을 강조한다. 단순히 누가 표현되는지를 개선하는 것만으로는 편향 완화 노력이 어떻게 사람들을 표현하는지에 적용되었다는 것을 의미하지 않는다는 중요한 간극을 지적한다. 연구는 최첨단 대규모 언어 모델에서 직업별 성별 표현을 조사하여 이를 비판적으로 검토한다. 시간이 지남에 따라 모델의 성별 분포를 변경하는 개입이 있었음을 보여주고, 모델이 전기나 페르소나를 생성하도록 프롬프트를 받았을 때 여성이 남성보다 더 많이 표현됨을 발견한다. 그러나 성별 간 통계적으로 유의미한 단어 차이를 조사하여 서로 다른 성별이 어떻게 표현되는지에 대한 표상 편향이 지속됨을 보여준다. 이는 여성 대표성을 높이기 위한 기존 개입에도 불구하고 기존 억압 시스템을 강화하는 표상적 피해, 고정관념 및 신자유주의적 이상의 확산으로 이어진다.