分享自:

使用超常值扩展范围的8位混合精度DNN训练

期刊:2025 IEEE 32nd Symposium on Computer Arithmetic (ARITH)DOI:10.1109/ARITH64983.2025.00013

这篇文档属于类型a,即报告了一项原创研究的学术论文。以下是针对该研究的学术报告:

作者及机构
本研究的主要作者包括Shing Wai Pun、Bozhang Bao、Silviu-Ioan Filip、Guy Lemieux、John V. Kim、Nazar Misyats、Nirvik Pande、Victor Ravain和Robert Sherrick。他们分别来自加拿大英属哥伦比亚大学(UBC)、法国国家信息与自动化研究所(Inria)、法国雷恩高等师范学院(ENS Rennes)、美国德克萨斯理工大学(TTU)等机构。该研究于2025年发表在IEEE第32届计算机算术研讨会(ARITH)上。

学术背景
本研究属于深度学习(Deep Learning)和计算机算术(Computer Arithmetic)领域。随着深度学习模型的规模不断扩大,训练这些模型所需的计算资源和能耗也在显著增加。为了提升训练效率,研究者们开始探索使用更低精度的浮点数格式(如8位浮点数,FP8)来减少内存占用和计算成本。然而,低精度格式的动态范围(Dynamic Range)有限,尤其是在梯度计算中,容易出现数值溢出或下溢的问题。传统解决方案是使用次正规数(Subnormals)来扩展动态范围,但次正规数需要额外的硬件逻辑,增加了计算单元的面积和成本。因此,本研究提出了一种称为“超正规数(Supernormals)”的新方法,旨在替代次正规数,以更低的硬件成本实现更大的动态范围扩展。

研究流程
1. 问题定义与目标:本研究的目标是简化次正规数的表示方式,同时扩展动态范围,并探索在8位混合精度(Mixed-Precision)深度神经网络(DNN)训练中的应用。
2. 超正规数的提出与设计:研究者提出了一种新的8位浮点数格式,将次正规数替换为超正规数。超正规数的核心思想是将尾数(Mantissa)位转换为指数(Exponent)位,从而在数值范围的上下两端扩展动态范围。具体实现包括:
- 在数值范围的下端,将最小的指数编码转换为超正规数,尾数位用于表示额外的指数偏移量。
- 在数值范围的上端,将最大的指数编码(通常用于表示无穷大或NaN)转换为超正规数,尾数位同样用于表示额外的指数偏移量。
- 通过这种方式,超正规数在牺牲一定精度的情况下,显著扩展了数值范围。
3. 硬件实现与优化:研究者设计了支持超正规数的混合精度乘法累加单元(MAC),并与其他格式(如E5M2和E4M3)进行了硬件面积和性能的对比。实验表明,超正规数格式在减少硬件面积的同时,提供了更大的动态范围。
4. 训练实验与验证:研究者在两个模型上进行了训练实验,分别是ResNet-20卷积神经网络和Llama 2语言模型。实验结果表明,使用超正规数格式的训练结果与现有方法(如E5M2和E4M3)相当,在某些情况下甚至优于传统方法。此外,超正规数格式还减少了对动态损失缩放(Dynamic Loss Scaling, DLS)的依赖。

主要结果
1. 硬件面积优化:与支持次正规数的格式相比,超正规数格式在硬件面积上节省了25%至40%。例如,在FPGA上实现的MAC单元中,E5M2B1(支持1个超正规数binade的格式)的面积与E5M2-nosub(不支持次正规数的格式)相当,但提供了更大的动态范围。
2. 训练性能验证:在ResNet-20模型上,使用E5M2B1格式的训练准确率达到了91.61%,与基线(E8M23)的91.72%接近。在Llama 2模型上,E5M2B1格式的训练损失为1.16629,与基线(1.14736)的差距在可接受范围内。相比之下,不支持次正规数的格式(E5M2-nosub)在Llama 2模型上无法收敛。
3. 动态范围扩展:超正规数格式将E5M2的动态范围从33个binade扩展到36个binade,显著提升了数值表示的灵活性。

结论
本研究提出的超正规数格式在硬件实现和训练性能上均表现出色。它不仅简化了次正规数的处理逻辑,减少了硬件面积,还通过扩展动态范围提升了低精度训练的稳定性。这一方法为未来的深度学习训练加速器设计提供了新的思路,尤其是在边缘计算和资源受限的场景中具有重要的应用价值。

研究亮点
1. 创新性:超正规数是一种全新的浮点数表示方法,首次在8位混合精度训练中实现了动态范围的扩展。
2. 实用性:超正规数格式在硬件实现上具有显著优势,能够在不增加硬件成本的情况下提升训练性能。
3. 广泛适用性:该方法不仅适用于卷积神经网络,还在大规模语言模型上展现了良好的性能,为低精度训练的普及提供了技术支持。

其他有价值的内容
本研究还探讨了超正规数格式在不同binade配置下的性能表现,发现1-binade配置在大多数情况下能够提供最佳的训练结果。此外,研究者建议未来可以针对数值范围的上端和下端分别配置超正规数,以进一步优化动态范围。

本研究通过提出超正规数格式,为低精度深度学习训练提供了一种高效且灵活的解决方案,具有重要的学术价值和实际应用意义。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com