본 연구는 인간 가치와 안전을 위해 인간 피드백을 사용하여 대규모 언어 모델(LLM)을 훈련할 때, 사회적 다양성이 종종 간과되는 문제를 다룹니다. 미국과 독일 참가자 (N = 1,095, 27,375개 평점)로부터 수집된 데이터를 바탕으로, LLM의 정렬 파이프라인에서 인구 통계학적 변동과 설계 매개변수가 LLM 행동에 미치는 영향을 체계적으로 평가합니다. 5가지 차원(유해성, 감성 인식, 민감성, 고정관념 편향, 유용성)에 대해 평점을 매겼으며, 다양한 사회 집단의 선호도를 사용하여 여러 LLM과 대규모 추론 모델을 미세 조정했습니다. 또한 평점 척도, 의견 불일치 처리 방법 및 최적화 기법을 다양하게 적용했습니다.