Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Bias in Decision-Making for AI's Ethical Dilemmas: A Comparative Study of ChatGPT and Claude

Created by
  • Haebom

저자

Yile Yan, Yuqi Zhu, Wentao Xu

개요

본 연구는 9개의 인기있는 대규모 언어 모델(LLM)들의 윤리적 의사결정 능력과 잠재적 편향을 체계적으로 평가합니다. 보호받는 속성이 포함된 네 가지 윤리적 딜레마 시나리오(보호적 vs. 해로운)에서 단일 및 교차 속성 조합을 포함한 50,400회의 시험을 통해 모델의 윤리적 선호도, 민감도, 안정성 및 군집 패턴을 평가합니다. 그 결과 모든 모델에서 보호받는 속성에 대한 상당한 편향이 드러났으며, 모델 유형과 딜레마 상황에 따라 선호도가 다릅니다. 특히 오픈소스 LLM은 소외된 집단에 대한 더 강한 선호도와 해로운 시나리오에서 더 큰 민감도를 보이는 반면, 클로즈드소스 모델은 보호적인 상황에서 더 선택적이며 주류 집단을 선호하는 경향이 있습니다. 또한 윤리적 행동은 딜레마 유형에 따라 다르게 나타납니다. LLM은 보호적인 시나리오에서는 일관된 패턴을 유지하지만, 해로운 시나리오에서는 더 다양하고 인지적으로 요구되는 결정을 내립니다. 더욱이, 모델은 단일 속성 설정보다 교차 조건에서 더 두드러진 윤리적 경향을 보이는데, 이는 복잡한 입력이 더 깊은 편향을 드러낸다는 것을 시사합니다. 이러한 결과는 LLM의 윤리적 행동에 대한 다차원적이고 상황 인식적인 평가의 필요성을 강조하며, LLM 의사결정에서 공정성을 이해하고 해결하기 위한 체계적인 평가 및 접근 방식을 제시합니다.

시사점, 한계점

시사점:
LLM의 윤리적 의사결정에 대한 체계적인 평가 프레임워크 제공
오픈소스와 클로즈드소스 LLM 간 윤리적 편향의 차이점 규명 (오픈소스는 소외계층에 대한 선호도가 더 높음)
딜레마 유형 및 속성 조합에 따른 LLM의 윤리적 행동 변화 분석 (교차 속성 조합에서 편향이 더 심화됨)
LLM의 공정성 향상을 위한 방향 제시
한계점:
평가에 사용된 딜레마 시나리오의 제한성
특정 LLM 모델에 대한 분석 결과의 일반화 가능성 제한
윤리적 판단의 주관성 및 다양성 고려의 부족
실제 세계 적용 가능성에 대한 추가 연구 필요
👍