Sign In

More of the Same: Persistent Representational Harms Under Increased Representation

Created by
  • Haebom
Category
Empty

저자

Jennifer Mickel, Maria De-Arteaga, Leqi Liu, Kevin Tian

개요

본 논문은 생성형 AI 시스템의 출력에서 누가 어떻게 표현되는지를 고려하는 것이 생성형 AI 시스템의 피해를 인지하고 완화하는 데 중요함을 강조한다. 단순히 누가 표현되는지를 개선하는 것만으로는 편향 완화 노력이 어떻게 사람들을 표현하는지에 적용되었다는 것을 의미하지 않는다는 중요한 간극을 지적한다. 연구는 최첨단 대규모 언어 모델에서 직업별 성별 표현을 조사하여 이를 비판적으로 검토한다. 시간이 지남에 따라 모델의 성별 분포를 변경하는 개입이 있었음을 보여주고, 모델이 전기나 페르소나를 생성하도록 프롬프트를 받았을 때 여성이 남성보다 더 많이 표현됨을 발견한다. 그러나 성별 간 통계적으로 유의미한 단어 차이를 조사하여 서로 다른 성별이 어떻게 표현되는지에 대한 표상 편향이 지속됨을 보여준다. 이는 여성 대표성을 높이기 위한 기존 개입에도 불구하고 기존 억압 시스템을 강화하는 표상적 피해, 고정관념 및 신자유주의적 이상의 확산으로 이어진다.

시사점, 한계점

시사점: 생성형 AI의 성별 표현 개선을 위해서는 단순히 수치적 대표성 증가뿐 아니라, 성별 간 표현 방식의 편향까지 고려해야 함을 시사한다. 단순한 대표성 증가가 오히려 기존의 억압 시스템을 강화할 수 있음을 보여준다. AI 모델의 출력에서 나타나는 고정관념과 신자유주의적 이상에 대한 비판적 검토 필요성을 제기한다.
한계점: 특정 직업 분야에 대한 분석에만 국한되어, 다른 사회적 그룹이나 속성에 대한 편향 분석은 부족하다. 분석에 사용된 데이터셋의 한계나 모델의 특성에 따른 일반화 가능성의 제약이 있을 수 있다. 편향 완화를 위한 구체적인 기술적 해결책 제시보다는 문제점 제기에 집중되어 있다.
👍