分享自:

基于二维材料的二晶体管-二电阻突触核心的高效神经形态计算

期刊:nature communicationsDOI:10.1038/s41467-025-59815-x

二维材料基2T2R突触核心用于高效神经形态计算的突破性研究

本研究由浙江大学集成电路学院的Qian He、Hailiang Wang等(共同一作)与Yishu Zhang、Bin Yu(通讯作者)团队联合国内外多家科研机构共同完成,成果于2025年发表于《Nature Communications》。研究团队通过三维异质集成技术开发了基于MoS₂二维材料与氧化物忆阻器的16×16突触计算核心(synaptic computing kernel, SCK),为高能效神经形态计算硬件提供了创新解决方案。

学术背景

神经形态计算因可模拟生物神经网络的高并行、低功耗特性,被视为突破传统冯·诺依曼架构瓶颈的关键技术。核心挑战在于如何实现高均匀性、可大规模集成的突触器件阵列。传统忆阻交叉阵列存在漏电流、读写耦合等问题,而二维材料因其原子级厚度和优异的电学特性成为理想选择。本研究旨在通过开发2T2R(双晶体管双电阻)结构单元,解决器件随机性、负权重实现及三维集成兼容性等问题,从而构建高性能突触计算核心。

研究流程与创新方法

1. 二维异质集成突触阵列的设计与制备

研究采用三步关键工艺:
- 材料合成与转移:通过化学气相沉积(CVD)制备晶圆级单层MoS₂,采用热释放胶带辅助的无损转移技术,将双层MoS₂逐层转移至SiO₂/Si衬底,实现表面粗糙度<0.5 nm的高度均匀性(原子力显微镜验证)。
- 晶体管与忆阻器集成:以MoS₂作为场效应晶体管(FET)沟道材料,搭配Al₂O₃模拟忆阻器。FET采用顶部金栅极结构,忆阻器为Au/Ti/Al₂O₃叠层,通过低温原子层沉积(ALD,<200°C)工艺实现三维垂直集成。
- 阵列架构创新:设计16×16的2T2R阵列,包含32字线(WLs)、32位线(BLs)和16源线(SLs)。每对1T1R单元共享源极,通过差分电导实现正负权重编程,单元间通过模拟域直接计算差异,避免数字减法带来的功耗。

2. 器件性能验证

  • MoS₂ FET特性:驱动电流密度达5 µA·µm⁻¹,开关比>10⁸(图2b),50个器件的阈值电压偏差%,满足高精度选通需求。
  • 忆阻器多态调控:通过脉冲幅值/数量调控,实现15个差分电导态(图3f),耐受1000次编程擦除循环,1000秒内电导漂移%(图2i)。氧空位迁移机制(非导电细丝)确保了稳定的模拟特性(补充图8)。
  • 阵列级性能:实测良率达91.2%(图1g),成功通过浙江大学校徽图案的电导映射验证(图3g),展示空间均匀性。

3. 神经形态计算应用验证

研究提出量化卷积混合网络(QCMNN),将CIFAR-10数据集识别任务映射至2T2R阵列:
- 量化训练方案:采用高斯噪声量化权重训练(Quantization-Aware Training, QAT),将1T1R的8态扩展为2T2R的15态有符号权重。
- 性能对比:2T2R实现85%识别准确率,接近软件理想值(89.3%),较传统1T1R结构(仅支持正权重)显著提升收敛速度与鲁棒性(图4d-e)。仿真表明该架构对读取干扰和电导漂移具有更强容错能力(补充表7-8)。

主要结果与逻辑关联

每个环节递进验证技术可行性:材料制备确保器件均一性→2T2R差分架构突破负权重限制→阵列集成证明规模化潜力→QCMNN验证计算效能。例如,MoS₂ FET的低泄漏电流(<0.1 pA·µm⁻¹)支撑了忆阻器的精确编程(图3c),而15态电导的长期稳定性(图2i)直接保障了神经网络推理的可靠性。

科学价值与应用前景

  1. 技术突破:首次实现二维材料基2T2R突触核心的三维异质集成,为单片三维神经形态芯片奠定基础。
  2. 方法论创新:提出脉冲宽度/幅值/数量的多参数编程方案(图2f)与差分模拟计算架构,功耗较传统数字方案降低30%(补充表4)。
  3. 应用潜力:支持4比特权重存储,适用于卷积神经网络(CNNs)、脉冲神经网络(SNNs)等算法,在边缘计算(如自动驾驶实时图像处理)和低功耗AI芯片领域具产业化价值。

研究亮点

  • 创新结构:2T2R单元通过共享源极设计减少IR压降,差分电导实现有符号权重,面积效率较1T1R提升40%(补充表3)。
  • 低温工艺:全程<200°C的制备温度兼容柔性电子与后端三维集成。
  • 高鲁棒性:通过冗余设计(一单元失效时由另一单元补偿)提升阵列可靠性(图3e)。

该成果为二维材料在神经形态硬件中的实际应用提供了完整技术路线,从材料合成、器件优化到系统级验证,显著推动了高性能计算硬件的开发进程。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com