Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

An analysis of AI Decision under Risk: Prospect theory emerges in Large Language Models

Created by
  • Haebom

저자

Kenneth Payne

개요

본 논문은 대규모 언어 모델(LLM)을 사용하여 카네만과 트버스키의 전망 이론을 최초로 실험적으로 검증한 연구이다. 인간과 마찬가지로 LLM 역시 위험한 결정을 내릴 때 전망 이론의 예측과 일치하는 경향을 보였으며, 특히 상황(문맥)이 위험 감수 성향에 큰 영향을 미친다는 것을 발견했다. 군사적 상황에서는 민간 상황보다 훨씬 큰 프레이밍 효과가 나타났으며, 이는 LLM이 인간의 휴리스틱과 편향을 포착하면서도, 그 편향이 상황에 따라 다르게 나타남을 시사한다. Wittgenstein의 '언어 게임' 개념을 통해 상황에 따라 활성화되는 국지적 편향을 설명하고, LLM의 추론과 기억에 대한 논쟁을 재구성하는 데 활용한다.

시사점, 한계점

시사점:
LLM이 인간과 유사하게 전망 이론에 따라 위험한 결정을 내린다는 것을 실험적으로 증명.
상황(문맥)이 LLM의 위험 감수 성향에 큰 영향을 미치며, 특히 군사적 상황에서 프레이밍 효과가 크게 나타남.
LLM이 인간의 휴리스틱과 편향을 모델링하고 있음을 시사.
Wittgenstein의 '언어 게임' 개념을 활용하여 LLM의 상황 의존적 편향을 설명.
LLM의 추론과 기억에 대한 논의를 새로운 관점에서 재검토할 필요성 제기.
한계점:
본 연구는 특정 LLM과 시나리오에 국한된 결과일 수 있음.
'프레이밍 효과'의 정확한 메커니즘에 대한 추가적인 연구가 필요함.
다양한 유형의 LLM과 더욱 광범위한 시나리오에 대한 추가적인 실험이 필요함.
👍