大规模语言模型 (LLM) 越来越多地用于不确定环境下的决策,但对其风险状况(包括它们如何受到提示和校准方法的影响)的研究仍然匮乏。本研究提出了一种新颖的流程,用于诱导、操纵和调整 LLM 的风险状况,并利用行为经济学和金融工具。我们使用效用理论模型比较了预训练、引导调整和 RLHF 校准的 LLM。虽然引导调整模型表现出与一些标准效用公式一致的行为,但预训练和 RLHF 校准模型往往与随机效用模型的偏差更大。此外,我们评估了条件反射策略,包括提示工程、情境学习和后训练,发现后训练能够最稳定、最有效地调整风险偏好。