본 논문은 대규모 언어 모델(LLM)의 위험 선호도가 다양하며, 이러한 특징이 경제적 역할 확대에도 불구하고 잘 이해되지 않고 있음을 다룬다. 연구진은 50개의 LLM을 행동 과제를 통해 분석하여 안정적이지만 다양한 위험 프로필을 발견했다. 무해성, 유용성, 정직성을 위한 정렬 조정은 위험 회피를 상당히 증가시키며, 비교 차이 분석을 통해 위험 회피를 인과적으로 증가시키는 것을 확인했다. 윤리적 향상 10%는 위험 감수를 2~8% 감소시킨다. 이러한 신중함은 프롬프트에 영향을 받지 않고 경제 예측에도 영향을 미친다. 정렬은 안전성을 향상시키지만 가치 있는 위험 감수를 억제하여 최적이 아닌 경제적 결과를 초래할 수 있는 절충안을 보여준다. AI 모델이 경제적 의사 결정에서 더욱 강력하고 영향력을 행사하고 정렬이 점점 중요해짐에 따라, 본 연구의 실증적 프레임워크는 위험 선호도를 추적하고 윤리적 정렬과 경제적으로 가치 있는 위험 감수 사이의 중요한 긴장 관계를 모니터링하기 위한 적응적이고 지속적인 벤치마크 역할을 한다.