No Free Lunch in Language Model Bias Mitigation? Targeted Bias Reduction Can Exacerbate Unmitigated LLM Biases
Created by
Haebom
Category
Empty
저자
Shireen Chand, Faith Baca, Emilio Ferrara
개요
본 논문은 대규모 언어 모델(LLM)이 훈련 데이터로부터 상속받은 사회적 편향성을 완화하기 위한 다양한 기법들의 교차 범주적 결과를 조사한다. 인종, 종교, 직업, 성별 관련 편향성을 연구하며, 7개의 모델 계열에서 10개의 모델에 4가지 편향 완화 기법을 적용한다. StereoSet 벤치마크를 사용하여 모델 일관성과 고정관념적 선호도에 대한 디바이싱의 영향을 측정한다.
시사점, 한계점
•
시사점:
◦
타겟 편향 완화 기법이 의도한 방향의 편향을 줄일 수 있지만, 다른 차원에서는 의도치 않은 부정적 결과를 초래할 수 있다.