Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

From Stability to Inconsistency: A Study of Moral Preferences in LLMs

Created by
  • Haebom

저자

Monika Jotautaite, Mary Phuong, Chatrik Singh Mangat, Maria Angelica Martinez

개요

본 논문은 대규모 언어 모델(LLM)의 암묵적 편향과 도덕적 경향성을 이해하는 데 중점을 둡니다. 도덕 기반 이론에 기초한 도덕 기반 LLM 데이터셋(MFD-LLM)을 제시하며, 이는 인간의 도덕성을 6가지 핵심 기반으로 개념화합니다. 다양한 실제 도덕적 딜레마에 대한 응답을 통해 LLM의 드러나는 도덕적 선호도의 전체 범위를 포착하는 새로운 평가 방법을 제안합니다. 연구 결과, 최첨단 모델들은 매우 균일한 가치 선호도를 보이지만 일관성이 부족함을 보여줍니다.

시사점, 한계점

시사점:
LLM의 암묵적 도덕적 편향 및 일관성 부족 문제를 밝힘으로써, 윤리적인 LLM 개발 및 배포를 위한 중요한 시사점을 제공합니다.
도덕적 딜레마에 대한 LLM의 응답을 분석하는 새로운 평가 방법을 제시하여, 향후 LLM의 윤리적 평가 연구에 기여할 수 있습니다.
LLM의 도덕적 선호도의 균일성과 일관성 부족을 보여줌으로써, 더욱 다양하고 윤리적인 LLM 개발의 필요성을 강조합니다.
한계점:
제시된 평가 방법의 객관성 및 일반화 가능성에 대한 추가적인 검증이 필요합니다.
6가지 도덕 기반 이론에 기반한 평가의 한계로 인해, 다른 도덕적 틀을 고려한 추가 연구가 필요할 수 있습니다.
현재 시점의 최첨단 모델에 대한 평가 결과이므로, 향후 LLM 발전에 따라 결과가 달라질 수 있습니다.
👍