本研究的核心作者包括Jiangrong Shen(浙江大学计算机科学与技术学院)、Qi Xu(大连理工大学人工智能学院,通讯作者)、Jian K. Liu(英国利兹大学计算机学院)、Yueming Wang与Gang Pan(浙江大学计算机科学与技术学院)、Huajin Tang(浙江大学智能计算研究中心及之江实验室,通讯作者)。研究发表于AAAI-23(第37届人工智能国际会议),标题为《ESL-SNNs: An Evolutionary Structure Learning Strategy for Spiking Neural Networks》。
研究领域与动机:
脉冲神经网络(Spiking Neural Networks, SNNs)因具有事件驱动特性与低功耗优势,在类脑计算与神经形态芯片应用中备受关注。然而,传统SNNs训练过程中存在参数冗余问题,导致内存占用高、能效比低。尽管已有研究通过训练后剪枝(post-training pruning)优化推理阶段的稀疏性,但训练阶段的结构冗余仍未解决。
生物学启发:
人脑发育过程中,神经连接通过结构可塑性(structural plasticity)动态重塑——突触持续生成与消除,最终形成稀疏高效的网络。受此启发,本研究提出进化结构学习框架(ESL-SNNs),旨在实现SNNs从零开始的稀疏训练,动态平衡剪枝与再生过程,探索最优连接拓扑。
ESL-SNNs的核心是通过Erdős–Rényi随机图初始化稀疏连接,并在训练中动态调整结构:
- 初始化阶段:
网络层间连接概率由公式 ( p(w_{ij}) = \frac{\epsilon(nk + n{k-1})}{nk \times n{k-1}} ) 控制,其中(\epsilon)为稀疏因子。例如,输入层784节点与隐藏层800节点的连接密度可通过调整(\epsilon)实现(图2显示(\epsilon=10)至90时的参数规模与精度变化)。
- 动态演化规则:
- 剪枝规则:每(T_{\text{iter}})次迭代剪除权重最接近0的(\alpha)比例连接(如(\alpha=0.1))。
- 再生规则:采用动量增长(momentum-based growth)或随机未激活优先(random unfired growth)策略,补充同等数量的新连接,保持总密度稳定。
多层前馈SNNs:
- 神经元模型:使用非泄漏积分发放(non-leaky integrate-and-fire)神经元,膜电位计算如公式(3):
( vj(t) = \sum{i=1}^{n_i} \theta(t-ti)w{ij}(1-\exp(-(t-t_i))) ),其中(\theta)为Heaviside阶跃函数。
- 损失函数:基于首次脉冲时间的z域交叉熵损失(公式6),通过梯度下降优化。
卷积SNNs:
- 神经元模型:迭代LIF(Leaky Integrate-and-Fire)神经元,膜电位更新如公式(7)-(9),结合时间误差阈值(TET)损失(公式10)进行多时间步训练。
- 稀疏约束:权重矩阵(W)与进化掩码(M)逐元素相乘((W{ij} = W{ij} \times M_{ij})),确保仅有效连接参与更新。
科学意义:
1. 填补稀疏训练与密集训练的表示能力差距:通过动态参数探索,ESL-SNNs首次实现SNNs从零开始的稳定稀疏训练,无需依赖预训练密集模型。
2. 类脑机制工程化:突触剪枝-再生规则模拟生物神经可塑性,为神经形态计算提供新范式。
应用价值:
- 低功耗训练:减少内存访问与计算开销,适配嵌入式硬件(如神经形态芯片)。
- 扩展性:框架兼容前馈与卷积SNNs,支持多类任务(静态图像与事件数据)。
(注:全文依据AAAI-23论文原文整理,实验数据与图表引用均来自原文献。)