本文作者为Carsen Stringer与Marius Pachitariu,来自霍华德·休斯医学研究所珍妮莉亚研究园区。该文是一篇综述,题为“analysis methods for large-scale neuronal recordings”,发表于2024年11月8日的《Science》 期刊(第386卷,文献号 eadp7429)。文章的主题是全面回顾、分类并阐述用于大规模神经元群体记录的数据分析方法,探讨这些方法如何被用于推进神经科学中长期存在的问题,并指出分析大数据时常见的统计陷阱。
本文的核心论点在于,随着多通道电极和双光子显微成像等技术的飞速发展,同时记录成百上千乃至数十万神经元的活动已成为常规操作。然而,如何从这些海量数据中提取有意义的科学洞见,构成了当前领域面临的主要挑战。文章系统性地梳理了从单神经元特性分析到群体活动结构探索,再到建立编码/解码模型的一整套分析框架,并强调了严格的统计验证对于避免错误结论的极端重要性。作者旨在为实验神经科学家提供一份方法论指南,帮助他们充分利用大规模记录数据,并引导该领域向更严谨、更具解释性的数据分析方向发展。
主要观点一:大规模记录技术的进步催生了新的分析需求与机遇。 文章首先概述了推动该领域发展的两大技术路线。在电生理学方面,Neuropixels探针的出现是一次重大飞跃,其单柄上的记录通道数大幅增加,并随之催生了如Kilosort、Mountainsort等全自动 spike sorting(锋电位分选)方法。在光学成像方面,以GCaMP6等基因编码钙指示剂为代表的双光子钙成像技术使得在斑马鱼和小鼠中记录数万至数十万神经元成为可能,同时也推动了Suite2P、CaImAn等自动化数据处理流程的发展。这些技术进步带来了“数据过剩”的甜蜜烦恼。作者指出,大规模记录至少有三个优势:1) 极大加速数据收集;2) 使研究协调的神经活动成为可能;3) 能够研究跨多个空间尺度同时发生的计算。然而,核心障碍是概念性的:我们究竟能从大规模记录中推断出哪些从小规模记录中无法学到的东西?这要求发展新的、专门针对神经计算特性的分析方法。
主要观点二:分析应从单神经元特性扩展到群体活动的结构探索,形成渐进的分析流程。 文章为科学家分析大规模数据提出了一个清晰的逻辑框架(见图4总结)。第一步是单神经元特性的规模化分析。这包括使用经典方法(如调谐曲线分析)在更大样本下验证或发现神经元特性(如选择性、潜伏期、行为相关性),并通过跨脑区、细胞类型或实验条件的比较研究(survey-type studies),以散点图、密度图等形式探索这些特性之间的意外关系。第二步是群体平均与平滑。将具有相似调谐特性的神经元进行平均,可以形成信噪比更高的“编码方向”,用于清晰展示整个群体的动态。为了进一步提升信号质量,可以使用主成分分析或高斯过程因子分析等方法对神经元活动进行去噪或“协同平滑”。第三步是探索神经群体活动的结构。这是大规模记录价值的核心体现,旨在发现神经元活动之间协调的模式。这通常从将数据转换为时间点上的“群体活动向量”开始,然后运用降维方法来识别高维数据中更简单的潜在表征。对这些表征的研究可以从几何、拓扑和动力学三个角度进行。
主要观点三:通过几何、拓扑和动力学方法,可以揭示神经群体活动的内在结构与计算原理。 在几何方法中,研究者可以比较不同任务条件、自发活动或睡眠期间群体活动向量的结构是否保持。例如,大鼠内嗅皮层的网格细胞在清醒和睡眠时,其活动模式在几何上保持相似(仅存在时间上的排列),这暗示了由内部环路动力学施加的约束。相反,在小鼠初级视觉皮层,感觉诱发活动与自发活动的模式几乎是正交的,后者更多地与口面部行为相关。此外,还可以分析群体活动所张成的子空间的线性维度,或比较不同数据集(如不同动物、不同天数)之间表征的相似性。拓扑方法则关注神经群体活动可能形成的非线性低维流形。通过构建基于欧氏距离的图,并使用等距映射、UMAP或t-SNE等方法进行低维嵌入,可以揭示其底层拓扑结构。例如,网格细胞的群体活动被发现具有环面(torus)拓扑,这与它们在二维空间中的周期性表征相对应。动力学方法试图从神经元跨时间的活动中推断出内在的动力学系统规则,例如通过比较神经网络模拟与神经数据,或直接从数据中推断时序结构和复杂的动力系统(如固定点、线吸引子)。这些方法为理解神经回路如何通过其固有动力学产生和维持特定活动模式提供了线索。
主要观点四:降维方法可作为探索性工具,将神经活动结构与任务变量相关联。 无论使用何种具体的降维方法(如主成分分析、非负矩阵分解、dPCA等),后续步骤通常是将其找到的“成分”与刺激、行为或推断的潜在变量(如奖励预期、注意力调制)进行比较,以识别有意义的成分。然后,通过绘制这些成分在时间上的轨迹并进行标注,可以直观地展示神经状态如何随任务演进。然而,文章也指出了降维方法的两个注意事项:一是不同会话或动物间的成分可能难以直接对应(可识别性问题),因为成本函数景观允许成分的旋转或混合;二是需要检查大量成分和成对散点图,流程繁琐。为此,作者介绍了他们团队开发的RasterMap方法,该方法能够将神经活动的主要成分或簇嵌入到单个图中,便于在单试次水平上进行全局可视化。
主要观点五:编码与解码模型是定量关联神经活动与行为变量的核心工具,但必须谨慎应用。 编码模型旨在根据刺激、行为等变量来预测神经反应。例如,作者的研究通过建立基于口面部行为的编码模型,成功预测了小鼠皮层表面约55%的可解释方差。这类模型特别适用于区分相关变量(如决策信号与运动信号)对神经活动的贡献。研究表明,运动信号在整个小鼠大脑中广泛分布,而决策信号则空间受限更明显。编码模型的形式多样,包括基于基函数表征离散事件的模型、降秩回归模型,乃至更复杂的卷积神经网络和Transformer模型。解码模型则相反,旨在从群体神经活动中推断外部变量。解码性能本身(如随着神经元数量增加,解码误差如何下降)就能提供重要信息。例如,在视觉皮层解码光栅朝向的任务中,解码误差可以趋近于零,这对某些基于信息论的感知误差起源假说构成了挑战。解码器还可用于解读完全内部生成的神经活动(如海马体的回放或计划活动)。然而,文章严厉警告了滥用解码分析的陷阱:解码误差常被误认为是神经元的“不确定性”,但在记录不充分时,它更可能反映的是解码器噪声。只有当神经元和试次数量足够多时,才能对解码误差进行有意义的解释。
主要观点六:大规模数据分析充满统计陷阱,严格的交叉验证是得出可靠结论的生命线。 这是全文反复强调的重点。即使是简单的分析,如按神经元对刺激的反应潜伏期对光栅图进行排序,如果不进行交叉验证,在训练试次上观察到的有序序列可能只是对噪声数据过拟合的结果,而在测试试次上会消失。另一个常见陷阱是在构建群体调谐曲线时,如果根据训练试次的数据选择每个神经元的“偏好刺激”,那么在训练试次上观察到的调谐反应会被高估,调谐曲线形状也会失真;在涉及实验操作的场景中,这种偏差可能导致对效应(如调谐曲线变宽或幅度变化)的错误解释。正确的做法是必须使用独立的测试试次数据来评估排序的有效性或计算调谐曲线。此外,在时间序列数据中,缓慢变化的变量(如觉醒度)可能在训练集和测试集之间产生“无意义的相关性”,需要通过分块随机分配等方法来最小化训练集和测试集之间的时间依赖性。作者总结道,避免这些陷阱需要将严格的交叉验证作为所有分析的标准流程。
本文的显著意义与价值在于,它不仅仅是一份方法目录,更是对神经科学数据分析范式转型的一次深刻审视。 在技术驱动数据量指数级增长的时代,文章明确指出,最大的挑战已从“如何获取数据”转向“如何理解数据”。它系统性地构建了一个从描述到解释、从探索到验证的分析路线图,为领域研究者提供了极具操作性的指导。更重要的是,文章以大量实例(如网格细胞与视觉皮层的对比)强调了“提出具体科学问题”和“进行适当控制”的至高重要性,直指当前许多研究中可能存在的误读风险(例如,将运动相关信号误认为决策信号)。文章最后展望,未来神经科学家需要快速掌握计算与统计分析方法,并通过与理论学家合作、参加Neuromatch Academy等培训课程来提升自身能力,以充分利用数据浪潮带来的机遇,最终揭示神经活动模式中蕴含的丰富“意义”。因此,这篇综述不仅具有方法论上的工具价值,更具有推动整个领域研究文化向更严谨、更量化方向发展的战略指导价值。