Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

The Silicon Reasonable Person: Can AI Predict How Ordinary People Judge Reasonableness?

Created by
  • Haebom

저자

Yonathan A. Arbel

개요

본 논문은 대규모 언어 모델(LLM)이 인간의 합리성 판단 패턴을 학습할 수 있는지 여부를 조사한다. 1만 건 이상의 시뮬레이션된 판단을 통해 인간과 모델을 비교하는 무작위 대조 실험을 사용하여 특정 모델이 표면적인 반응뿐만 아니라 잠재적인 기저 의사결정 구조를 포착한다는 것을 보여준다. 놀랍게도, 이러한 시스템은 과실 판단에서 경제적 효율성보다 사회적 신호를 우선시하는데, 이는 교과서적 처리와는 상반되지만 인간의 행동을 반영한다. 이러한 결과는 판사가 더 넓은 패턴에 대한 직관을 보정하고, 입법자는 정책 해석을 테스트하고, 자원이 부족한 소송 당사자는 주장의 수용을 미리 예측할 수 있는 실용적인 응용 프로그램을 시사한다. AI 에이전트가 점점 더 자율적인 실제 세계 결정을 내림에 따라, 그들이 인식 가능한 윤리적 프레임워크를 내면화했는지 여부를 이해하는 것은 그들의 행동을 예측하는 데 필수적이다.

시사점, 한계점

시사점:
LLM이 인간의 합리성 판단 패턴을 학습하고, 사회적 신호를 경제적 효율성보다 우선시하는 인간의 행동을 반영할 수 있음을 보여줌.
판사의 직관 보정, 정책 해석 테스트, 소송 당사자의 주장 수용 예측 등 실용적 응용 가능성 제시.
AI 에이전트의 윤리적 프레임워크 내면화 여부 이해의 중요성 강조.
한계점:
시뮬레이션된 판단에 기반한 연구 결과이므로 실제 법적 상황 적용에 대한 추가 연구 필요.
사용된 LLM의 특성 및 한계에 대한 명확한 설명 부족.
다양한 법적 맥락에 대한 일반화 가능성에 대한 추가 검증 필요.
👍