每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

InfiR2:推理增强语言模型的综合 FP8 训练方案

Created by
  • Haebom

作者

王文军、蔡硕、谢从凯、冯明发、张一鸣、李真、杨科静、李明、曹建农、杨红霞

FP8 训练方法介绍

大纲

训练大规模语言模型 (LLM) 的高昂计算成本对创新构成了重大障碍。虽然 FP8 训练提供了一种颇具前景的解决方案,能够显著提升理论上的效率,但缺乏全面的开源训练方案阻碍了其广泛应用。本文提出了一种端到端的 FP8 训练方案,无缝集成了持续预训练和监督微调。它采用细粒度的混合粒度量化策略,在保持数值保真度的同时,最大限度地提高了计算效率。大量实验(包括在 1600 亿个词条的语料库上对模型进行持续预训练)表明,该方案不仅高度稳健,而且基本无损。它在各种推理基准测试中都达到了与 BF16 基线相当的性能。这得益于显著的效率提升,包括训练时间缩短高达 22%,峰值内存使用量降低 14%,吞吐量提升 19%。

Takeaways, Limitations

FP8 被视为 BF16 的实用且强大的替代方案。
训练时间减少高达 22%,内存使用量减少 14%,吞吐量增加 19%。
即将发布的开源代码
论文中没有具体提到Limitations
👍