类型a:学术研究报告
北京大学黄子涵、史新宇、郝泽成、卜彤、丁剑豪、余昭菲(通讯作者)和黄铁军团队于2024年在ACM国际多媒体会议(MM ‘24)上发表了题为《Towards High-Performance Spiking Transformers from ANN to SNN Conversion》的研究论文。该研究聚焦人工智能领域的脉冲神经网络(Spiking Neural Networks, SNNs)与人工神经网络(Artificial Neural Networks, ANNs)的转换问题,提出了一种创新的转换方法,旨在解决传统Transformer模型因非线性模块(如LayerNorm、GELU)难以高效转换为SNN的难题。
SNN因其生物启发的脉冲计算特性,具有高能效、快速处理和鲁棒性等优势,被视为第三代神经网络。目前构建SNN主要有两种方法:直接训练和ANN-SNN转换。直接训练需消耗大量内存资源,而现有转换方法多局限于卷积神经网络(CNNs),因Transformer中的非线性模块(如注意力机制、GELU激活函数)与SNN的脉冲发放机制难以兼容。本研究的目标是实现高性能Transformer到SNN的转换,同时降低延迟与能耗。
研究分为三个核心步骤:
非线性模块的误差分析与补偿机制设计
多阈值神经元(Multi-Threshold Neuron, MT)与并行参数归一化
整体转换算法(ECMT)
性能对比实验
多阈值有效性验证
能耗分析
本研究首次实现了Transformer到SNN的高精度、低延迟转换,核心贡献包括:
1. 科学价值:提出ECM理论框架,解决了非线性模块的转换误差问题;MT神经元设计为SNN的低延迟优化提供了新思路。
2. 应用价值:在复杂数据集上验证了方法的通用性,为边缘设备部署高能效SNN模型奠定了基础。代码已开源(GitHub链接)。
研究还指出,当前方法仍存在少量乘法运算,未来可结合神经形态芯片(如Tianjic)进一步优化,实现纯累积计算。这一方向为SNN的硬件适配提供了新启示。