每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

贝叶斯教学使大型语言模型中的概率推理成为可能

Created by
  • Haebom

作者

邱琳路、沙飞、凯尔西·艾伦、尹金、塔尔·林岑、Sjoerd van Steenkiste

大纲

基于大规模语言模型 (LLM) 的人工智能代理必须构建内部表征并形成概率信念,才能与用户交互并感知世界。本文指出,LLM 并不遵循贝叶斯推理框架,因此它们的预测不会随着额外信息的增加而改进。为了解决这个问题,我们训练 LLM 模仿常规贝叶斯模型的预测,教会它们以贝叶斯方式进行推理。结果,LLM 不仅在训练的推荐任务上显著提升了性能,而且还能推广到其他任务。这表明 LLM 能够有效地从示例中学习推理技能,并将这些技能推广到新的领域。

Takeaways,Limitations

LLM 不会根据贝叶斯推理框架更新信念,因此即使信息增加,预测改进也是有限的。
通过训练 LLM 来模仿贝叶斯推理,我们在特定任务(例如推荐)和其他任务的推广上取得了显著的性能提升。
我们证明 LLM 可以从例子中学习并概括推理技巧。
具体的训练方法和泛化性能还有待进一步研究。
需要进一步审查其对复杂现实问题的适用性和可扩展性。
👍