본 연구는 9개의 인기있는 대규모 언어 모델(LLM)들의 윤리적 의사결정 능력과 잠재적 편향을 체계적으로 평가합니다. 보호받는 속성이 포함된 네 가지 윤리적 딜레마 시나리오(보호적 vs. 해로운)에서 단일 및 교차 속성 조합을 포함한 50,400회의 시험을 통해 모델의 윤리적 선호도, 민감도, 안정성 및 군집 패턴을 평가합니다. 그 결과 모든 모델에서 보호받는 속성에 대한 상당한 편향이 드러났으며, 모델 유형과 딜레마 상황에 따라 선호도가 다릅니다. 특히 오픈소스 LLM은 소외된 집단에 대한 더 강한 선호도와 해로운 시나리오에서 더 큰 민감도를 보이는 반면, 클로즈드소스 모델은 보호적인 상황에서 더 선택적이며 주류 집단을 선호하는 경향이 있습니다. 또한 윤리적 행동은 딜레마 유형에 따라 다르게 나타납니다. LLM은 보호적인 시나리오에서는 일관된 패턴을 유지하지만, 해로운 시나리오에서는 더 다양하고 인지적으로 요구되는 결정을 내립니다. 더욱이, 모델은 단일 속성 설정보다 교차 조건에서 더 두드러진 윤리적 경향을 보이는데, 이는 복잡한 입력이 더 깊은 편향을 드러낸다는 것을 시사합니다. 이러한 결과는 LLM의 윤리적 행동에 대한 다차원적이고 상황 인식적인 평가의 필요성을 강조하며, LLM 의사결정에서 공정성을 이해하고 해결하기 위한 체계적인 평가 및 접근 방식을 제시합니다.