Sign In

Language Models Predict Empathy Gaps Between Social In-groups and Out-groups

Created by
  • Haebom
Category
Empty

저자

Yu Hou, Hal Daume III, Rachel Rudinger

개요

본 연구는 대규모 언어 모델(LLM)이 인간의 집단 간 관계에서 나타나는 편향, 즉 내집단 구성원에게 더 큰 공감을 보이는 경향을 재현하는지 조사했습니다. LLM에게 특정 감정을 유발하는 경험에 대한 짧은 설명을 제공하고, 감정 강도를 수치적으로 예측하게 하는 과제를 설정했습니다. LLM의 페르소나(관찰자)와 서술 속 인물(경험자)의 집단 정체성을 조작하여 내집단과 외집단 설정 간 예측된 감정 강도의 차이를 측정했습니다. 그 결과, LLM은 내집단 구성원에게 더 높은 감정 강도 점수를 부여하는 것으로 나타났으며, 이러한 패턴은 인종/민족, 국적, 종교 등 세 가지 유형의 사회적 집단에서 모두 관찰되었습니다. 특히 Llama-3.1-8B 모델에서 가장 강한 집단 간 편향이 나타났습니다.

시사점, 한계점

시사점:
LLM이 인간의 집단 간 편향을 반영하여 내집단에 대한 우호적인 편향을 보임을 실증적으로 보여줌.
LLM의 윤리적 함의를 강조하고, 편향 완화를 위한 추가 연구의 필요성 제기.
다양한 LLM 모델에서의 편향 비교 분석을 통해 모델 개발 및 개선 방향 제시.
한계점:
본 연구는 특정 LLM 모델과 제한된 사회적 집단에 대한 분석에 국한됨.
사용된 데이터셋의 특성과 범위가 결과에 영향을 미칠 수 있음.
LLM의 편향 발생 원인에 대한 심층적인 분석이 부족함.
실제 세계의 복잡한 사회적 상호작용을 완벽하게 반영하지 못할 가능성 존재.
👍