本文重点研究金融领域中基于客户历史通信序列学习客户嵌入的问题。虽然大规模语言模型 (LLM) 能够提供通用知识,但将其直接应用于长事件序列计算成本高昂,且难以在实际流程中实现。为了解决这个问题,我们提出了一个名为 LATTE 的对比学习框架。LATTE 将原始事件嵌入与来自固定 LLM 的语义嵌入对齐。动作特征被汇总为简短的提示,由 LLM 嵌入,并通过对比损失用于监督学习。与使用 LLM 处理整个序列的现有方法相比,该方法显著降低了推理成本和输入大小。它在现实世界金融数据集上的事件序列表示学习方面的表现优于最先进的方法,并且即使在延迟敏感的环境中也可以部署。