본 논문은 대규모 언어 모델(LLM)이 특정 취약 계층, 특히 정신 건강 문제가 있는 집단에 대한 공격적인 발언을 생성하는 경향을 분석합니다. LLM이 생성한 공격적 발언에 대한 명시적인 평가, 편향 전파를 연구하기 위한 네트워크 기반 프레임워크, 그리고 이러한 공격으로 인한 낙인 효과의 정도 평가라는 세 가지 주요 기여를 제시합니다. 최근 공개된 대규모 편향 감사 데이터셋 분석 결과, 정신 건강 관련 개체가 공격 서술 네트워크 내에서 중심적인 위치를 차지하며, 높은 평균 근접 중심성(p-값 = 4.06e-10)과 밀집 클러스터링(지니 계수 = 0.7)을 보이는 것으로 나타났습니다. 낙인 이론의 사회학적 기반을 바탕으로 한 낙인 분석은 정신 건강 장애 관련 표적에 대한 라벨링 구성 요소가 생성 체인의 초기 표적보다 증가함을 보여줍니다. 결론적으로, 이러한 통찰력은 LLM의 해로운 담론을 증폭시키는 구조적 성향을 밝히고, 완화를 위한 적절한 접근 방식의 필요성을 강조합니다.