본 논문은 대규모 언어 모델(LLM)이 훈련 데이터에 내재된 편향을 의도치 않게 영속화할 수 있다는 문제를 다룹니다. 편향을 유발하는 제목에 대한 LLM의 반응을 분석하여, LLM이 종종 인간의 편향을 반영한다는 것을 밝힙니다. 이를 해결하기 위해, 반응 집계를 통한 편향 완화를 위한 크라우드 기반 전략을 탐구합니다. 다수의 LLM의 응답을 단순히 평균하는 방법은 LLM 크라우드 내 다양성의 제한으로 인해 기존 편향을 악화시킬 수 있음을 보여줍니다. 반대로, 지역 가중치 집계 방법이 LLM 크라우드의 지혜를 보다 효과적으로 활용하여 편향 완화와 정확도 향상을 모두 달성함을 보여줍니다. 마지막으로, LLM(정확성)과 인간(다양성)의 상호 보완적인 강점을 인식하여, 둘 모두를 포함하는 하이브리드 크라우드가 성능을 크게 향상시키고 인종 및 성별 관련 맥락에서 편향을 더욱 줄임을 보여줍니다.