每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

大型语言模型中的认知多样性和知识崩溃

Created by
  • Haebom

作者

达斯汀·赖特、莎拉·马苏德、贾里德·摩尔、斯里什蒂·亚达夫、玛丽亚·安托尼亚克、朴赞永、伊莎贝尔·奥根斯坦

法学硕士知识崩溃研究

大纲

本文强调了知识衰减的风险,大规模语言模型 (LLM) 往往会生成千篇一律的文本,这会导致可访问信息的范围随着时间的推移而缩小。为了克服现有研究的局限性,本文提出了一种新颖的方法来衡量 LLM 输出中现实世界主张的多样性,即“认知多样性”,并利用该方法对 LLM 知识衰减进行了全面的实证研究。我们测试了 27 个 LLM、涵盖 12 个国家的 155 个主题以及 200 个来自真实用户聊天的提示变体。

Takeaways, Limitations

尽管较新的模型往往会产生更加多样化的主张,但几乎所有模型的认知多样性都低于基本的网络搜索。
模型规模对认知多样性有负面影响,而增强搜索生成 (RAG) 则有积极影响。RAG 的提升程度因文化背景而异。
与传统知识来源(维基百科)相比,特定国家/地区的主张更多地反映英语而不是当地语言,这表明认知表征存在差距。
👍