每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

LATTE:为银行客户学习对齐交易和文本嵌入

Created by
  • Haebom

作者

叶戈尔·法捷耶夫、詹布拉特·莫拉耶夫、阿列克谢·舍斯托夫、奥马尔·佐洛耶夫、阿尔乔姆·萨赫诺、德米特里·科罗廖夫、伊万·基里耶夫、安德烈·萨夫琴科、马克西姆·马卡连科

大纲

本文重点研究金融领域中基于客户历史通信序列学习客户嵌入的问题。虽然大规模语言模型 (LLM) 能够提供通用知识,但将其直接应用于长事件序列计算成本高昂,且难以在实际流程中实现。为了解决这个问题,我们提出了一个名为 LATTE 的对比学习框架。LATTE 将原始事件嵌入与来自固定 LLM 的语义嵌入对齐。动作特征被汇总为简短的提示,由 LLM 嵌入,并通过对比损失用于监督学习。与使用 LLM 处理整个序列的现有方法相比,该方法显著降低了推理成本和输入大小。它在现实世界金融数据集上的事件序列表示学习方面的表现优于最先进的方法,并且即使在延迟敏感的环境中也可以部署。

Takeaways, Limitations

Takeaways:
LATTE 通过有效处理金融领域客户过去的通信序列,提出了一种学习客户嵌入的新框架。
它提供了一种解决方案,可以通过利用 LLM 在实际环境中部署,同时降低推理成本和输入大小。
它在真实金融数据集上的表现优于现有技术。
Limitations:
论文中没有具体说明Limitations。
它很大程度上依赖于LLM的性能,而LLM的局限性也可能影响LATTE的性能。
可能需要对所使用的 LLM 类型、提示工程的细节以及其他数据集的泛化性能进行进一步研究。
👍