异构智能体团队建模的一个关键挑战是训练智能体与缺乏策略访问权限或行为难以预测的队友(例如人类)协作。为了解决现有方法依赖于直接涉及人类的数据的可扩展性问题,本文提出了一种生成模拟人类决策的合成数据的方法,该方法通过使用大规模语言模型 (LLM) 作为策略无关的人类代理。本研究通过三个实验评估了该方法,实验在一个网格世界捕获游戏中进行,该游戏的灵感来自“猎鹿”(一种平衡风险与回报的博弈论范式)。实验结果表明,LLM 与专家的匹配度高于人类参与者,当被要求采取风险敏感型策略时,它们表现出规避风险或寻求风险的行为。此外,它们在动态网格世界中生成的轨迹与人类参与者的轨迹相似。