分享自:

基于深度学习的拉曼光谱高通量分子成像

期刊:Analytical ChemistryDOI:10.1021/acs.analchem.1c02178

基于深度学习的拉曼光谱高通量分子成像技术:DEEPER框架的突破性研究

作者及发表信息
本研究由Conor C. Horgan(伦敦国王学院和帝国理工学院)、Magnus Jensen(伦敦国王学院)、Anika Nagelkerke(格罗宁根大学/帝国理工学院)等团队合作完成,通讯作者为帝国理工学院的Molly M. Stevens和伦敦国王学院的Mads S. Bergholt。研究成果发表于《Analytical Chemistry》期刊2021年11月刊(Volume 93, Issue 45, Pages 15850–15860)。


学术背景
拉曼光谱(Raman spectroscopy)是一种无需标记、非破坏性的分子成像技术,可提供亚细胞级分子对比度,但受限于信号弱、采集速度慢(通常每像素需1秒),难以满足高通量成像需求。传统解决方案如相干反斯托克斯拉曼散射(CARS)和受激拉曼光谱(SRS)依赖昂贵且复杂的脉冲激光系统。本研究提出DEEPER框架,利用深度学习(deep learning)提升拉曼成像速度与信噪比(SNR),突破硬件限制。


研究流程与方法
1. 数据准备与模型设计
- 数据集:基于MDA-MB-231乳腺癌细胞,采集172,312对低SNR(0.1秒/光谱)与高SNR(1秒/光谱)的拉曼光谱,总计1.5百万光谱(400小时数据)。
- 1D ResUNet降噪模型:采用一维残差UNet架构,通过11折交叉验证训练,输入低SNR光谱,输出高SNR重建光谱。数据增强包括光谱翻转、平移和背景扣除。
- 超分辨率模型(HyRISR):基于残差通道注意力网络(RCAN),对169张拉曼超光谱图像(1.4百万光谱)进行2×、3×、4×空间超分辨率重建,减少成像时间4–16倍。

  1. 联合降噪与超分辨率

    • 将1D ResUNet与HyRISR串联,实现40–160倍成像速度提升。例如,160倍加速下,单细胞成像时间从68分钟缩短至26秒。
    • 验证方法:通过顶点成分分析(VCA, Vertex Component Analysis)评估分子信息保留效果,对比传统方法(Savitzky-Golay滤波、PCA降噪)。
  2. 迁移学习验证

    • 将预训练模型迁移至组织工程软骨数据(仅16张训练图像),证明跨领域适用性。

主要结果
1. 降噪性能
- 1D ResUNet的均方误差(MSE)为2.85×10⁻³,比PCA降噪(2.96×10⁻²)提升10倍,且避免了传统方法引入的伪影(图2)。
- VCA显示,神经网络能准确区分核酸、蛋白质和脂质分布,而PCA输出无法有效分离细胞组分(图2d)。

  1. 超分辨率重建

    • HyRISR在2×超分辨率下,峰值信噪比(PSNR)和结构相似性(SSIM)显著优于双三次插值(p<0.001),成像时间从68分钟降至17分钟(图3)。
    • 3×超分辨率仍能保留亚细胞结构,但4×时出现模糊,适合大范围快速筛查(图3a)。
  2. 联合应用与迁移学习

    • 40–90倍加速下,单细胞成像可在1–2分钟内完成,分子信息保留完整(图4)。
    • 迁移学习在软骨组织中实现4×超分辨率,PSNR达32.5,证明框架的泛化能力(图5)。

结论与价值
1. 科学价值
- DEEPER首次将深度学习系统应用于拉曼光谱全流程(降噪、超分辨率、迁移学习),为生物医学高通量成像提供新范式。
- 通过数据驱动替代硬件升级,降低技术门槛,尤其适用于资源有限场景。

  1. 应用前景
    • 细胞生物学:加速单细胞代谢研究;病理学:支持快速光谱病理筛查;临床:潜在应用于术中分子诊断。
    • 开源代码与预训练模型(GitHub)促进社区应用扩展。

研究亮点
1. 方法创新
- 首创1D ResUNet拉曼降噪模型,MSE性能超越传统方法10倍。
- HyRISR首次实现拉曼超光谱图像的2–4×超分辨率重建。

  1. 技术整合

    • 联合降噪与超分辨率,实现160倍成像加速,突破现有技术极限。
    • 迁移学习验证框架跨样本适用性,减少数据依赖。
  2. 开源共享

    • 公开数据集、代码与模型,推动拉曼技术标准化与普及。

局限性
- 超高分辨率(如单像素细节)重建仍需优化;
- 跨领域应用需针对性验证,如肿瘤组织与正常组织的谱学差异。


其他价值
研究提出的深度学习框架可扩展至其他光谱技术(如FT-IR、质谱成像),为多模态分子成像提供通用解决方案。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com