本文研究了利用外部工具和其他深度学习模型的测试时计算来提升大规模语言模型 (LLM) 的性能。现有的将非文本模态表征集成到 LLM 的方法需要成本高昂的监督学习,而我们提出的上下文内表征学习 (ICRL) 则通过小样本学习 (small-shot learning) 自适应地利用非文本模态表征。与现有的上下文学习不同,ICRL 使用底层模型 (FM) 的表征而非文本-标签对来执行多模态推理,无需进行微调。我们评估了 ICRL 在多个分子任务上的可行性,并研究了 FM 表征如何映射到 LLM、影响 ICRL 性能的因素以及 ICRL 有效性背后的机制。ICRL 是第一个将非文本模态表征集成到基于文本的 LLM 的无需学习的框架,为自适应多模态泛化提供了一个充满希望的方向。