分享自:

通过神经群体动力学进行计算

期刊:annual review of neuroscienceDOI:10.1146/annurev-neuro-092619-094115

神经网络群体动力学:大脑如何通过计算驱动行为

本文档为Saurabh Vyas、Matthew D. Golub、David Sussillo与Krishna V. Shenoy(均来自斯坦福大学及下属多个机构)撰写,并于2020年发表在《Annual Review of Neuroscience》(《神经科学年度综述》)上的一篇综述文章。该文章的主题是系统性地阐述“通过神经群体动力学进行计算”这一核心理论框架,旨在解释大脑神经网络如何通过其内在的动态演化过程,来执行感知、认知和运动控制等复杂功能。

一、论文核心主题与理论框架:“通过神经群体动力学进行计算”

文章开宗明义地指出,随着大规模神经测量与计算理论的发展,神经科学的研究重点已从理解单个神经元的编码特性,转向探究神经网络群体的协调活动如何实现计算。文章提出的核心框架是“通过神经群体动力学进行计算”。其核心思想是:神经计算并非通过静态或简单的传递编码来实现,而是通过神经网络作为一个整体,在高维状态空间中遵循特定的动态规则(即“动力学”)进行演化来完成的。这种演化过程,最终驱动行为输出。

这一框架可以用一个简明的数学公式概括:dx/dt = f(x(t), u(t))。其中,x(t) 是一个n维向量,代表同时记录的n个神经元的放电率,称为“神经群体状态”。dx/dt 是其时间导数,即状态变化的方向与速度。f 是一个(可能是非线性的)函数,它封装了神经回路内部的连接与动力学特性。u(t) 则是来自外部(如其他脑区或感觉输入)的信号。因此,神经网络的活动轨迹,由初始状态、内部动力学f以及外部输入u共同决定。

文章强调,这一视角有助于揭示隐藏在复杂、高维神经活动数据之下的“动态基序”,从而在动力学层面建立连接大脑活动与行为的定量化理论。

二、核心理论工具与分析方法

为帮助读者理解和应用CTD框架,文章第二部分详细介绍了必要的数学和分析工具。

  • 循环神经网络作为建模工具:文章指出,深度学习中的循环神经网络是模拟神经动力学的强大工具。RNN本质上是一个参数化的动力学系统,可以作为“数据模型”(拟合记录的神经活动)或“任务模型”(模拟从输入到行为输出的转换过程)。由于其通用逼近能力,训练好的RNN可以作为生物神经回路f的一个可快速模拟、易于研究的代理模型。
  • 通过线性化理解非线性高维系统:直接分析高维非线性系统(f)极其困难。文章介绍了一种关键策略:在状态空间的关键点(如“不动点”)附近对系统进行线性化。不动点是状态空间中满足dx/dt = 0的点,代表着系统可能稳定或停留的状态。围绕不动点的线性化,将复杂的非线性动力学局部近似为一个线性动力学系统。通过分析多个不动点附近的局部线性动力学,可以拼凑出对整个非线性系统行为的理解。文章还引入了“上下文输入”的概念,即缓慢变化的输入可以改变系统的平均工作点,从而全局性地改变其动力学模式,实现不同的计算功能。
  • 线性子空间与流形的概念:这是分析高维神经数据的几何基础。
    1. 线性子空间:高维神经活动通常集中在通过原点的低维超平面上,这为降维和去噪分析提供了基础。
    2. 零空间与效能空间:对于一个线性映射(如从一个脑区到另一个脑区或到肌肉的输出),其零空间是所有不会引起下游响应的输入活动的集合。与之正交的补集称为效能空间。文章强调,大脑可以利用零空间进行“并行计算”,例如,在运动准备阶段,活动可以安全地在零空间中演化而不引发运动,为后续的灵活控制提供了机制。
    3. 流形:比线性子空间更一般,是嵌在高维空间中的、局部呈线性的低维弯曲空间。神经群体动力学常常被限制在特定的流形上演化,这反映了神经回路的内在约束。

三、CTD框架在运动控制领域的应用与发现

文章第三部分重点综述了CTD框架在运动皮层控制手臂运动方面的成功应用,揭示了一系列动力学基序。

  • 运动准备:动力学机器的第一个齿轮:在经典的指令延迟伸手任务中,延迟期的神经活动传统上被视为“准备活动”。CTD框架将其解释为整个运动产生动力学的“初始条件”。不同的运动目标对应不同的初始状态。实验证据支持这一观点:准备状态更接近理想初始条件的试验,反应时更短;而绕过准备阶段(如无延迟试验)虽能产生运动,但动态模式有所不同。研究还发现,准备期的活动主要发生在“输出零空间”中,从而避免在准备期间过早触发运动。
  • 运动执行期间的动态基序
    1. 状态无关信号与旋转动力学:运动开始后,运动皮层群体活动中存在一个巨大的、与运动条件无关的信号成分,它可能将状态从准备区域“踢”到另一个区域。在此之后,主导的神经轨迹在状态空间中表现出清晰的“旋转”模式。这些旋转并非直接编码运动参数(如速度),而是构成了产生复杂、时变肌肉活动模式的一个基础集合。
    2. 解缠:研究发现,运动生成期间的大量神经活动用于“解缠”——即确保在状态空间中,即使时间上接近的相似神经状态,也能演化出截然不同的未来轨迹,从而提高动力学对噪声的鲁棒性。
    3. 发散性:比较辅助运动区和初级运动区发现,负责追踪上下文(如时间)的SMA,其群体活动结构保持低“发散性”,以确保当前相同但即将分叉的行动能被区分;而M1则表现出高发散性。
  • 运动适应的群体动力学基础:在视觉运动旋转学习任务中,学习过程表现为准备状态在神经状态空间中,沿着与行为错误相关的方向进行系统性旋转。至关重要的是,这种通过学习改变的准备状态可以在“显性”(实际手臂运动)和“隐性”(仅通过脑机接口控制光标)运动上下文之间迁移,表明准备子空间是共享的。因果实验(微刺激干扰准备状态)进一步证明,准备活动与试次间的学习更新过程相互作用。在力场适应学习中,尽管活动发生变化,但运动前区到初级运动区的“输出效能”映射关系保持稳定,变化主要发生在零空间中,这保护了脑区间的通信链路不被学习破坏。
  • 流形结构对学习的启示:通过脑机接口实验,研究发现运动皮层活动存在于一个低维的“内在流形”中。动物能快速学会那些可以通过调整流形内神经活动来解决的扰动,但难以学会需要产生流形外新活动模式的扰动。学习首先通过“神经重关联”机制实现,即重新关联流形内已有的神经状态与新的行为输出;只有在更长时间尺度的学习后,才会逐渐产生流形外的新活动模式。RNN模型分析表明,实现流形外的变化需要显著的网络权重改变。

四、CTD框架在认知功能领域的应用

第四部分将CTD框架扩展到计时、决策和工作记忆等高级认知功能。

  • 运动计时:研究发现,背内侧前额叶皮层在计时任务中,通过控制神经轨迹在状态空间中的“速度”来表征不同时间间隔。这种速度调节可以通过来自丘脑的紧张性输入(作为上下文输入)来实现。在需要根据感觉反馈在线调整时间估计的任务中,速度命令会根据误差进行更新,体现了闭环控制原理。
  • 决策与工作记忆
    1. 上下文依赖的决策:在一项经典的上下文依赖决策任务中,RNN模型揭示,决策并非通过简单的“门控”实现,而是通过上下文输入将神经状态空间整体平移,使得与任务无关的输入维度动态衰减,而相关维度得以整合并沿一个“线吸引子”演化至决策点。
    2. 延迟匹配到类别任务:RNN模型显示,工作记忆是通过“轨迹隧道”来动态维持的。记忆样本后,神经状态被推入对应类别的稳定隧道中流动,噪声可能导致状态跳入错误隧道,从而引发分类错误。状态空间几何分析揭示了任务解决涉及围绕多个不动点和鞍点的复杂导航。
    3. 贝叶斯感知与先验整合:在时间间隔复制任务中,先验信息以低维弯曲流形的形式“扭曲”了神经表征,使行为接近贝叶斯最优。模型中的因果扰动实验支持了这种“流形弯曲”机制。
    4. 多任务学习与组合性:训练RNN执行20种不同认知任务的研究发现,网络自发形成了“组合性”表征和功能特异化的神经元群,这为理解生物神经网络的多功能性和模块化提供了模型基础。奖励式训练RNN的框架也为研究基于价值的决策提供了新工具。

五、挑战、未来方向与意义

文章最后总结了CTD框架面临的挑战和未来机遇。主要挑战包括:更精细地刻画特定脑区的输入输出结构及其如何塑造局部动力学;在真实神经回路中进行严格的因果检验以证伪CTD的预测。未来进展将依赖于多脑区大规模记录技术(如神经像素探针、全脑钙成像)的发展,以及能够对群体神经活动进行精确时空模式操控的技术(如全息光遗传学)。这些技术将使得直接测试CTD的预测成为可能。

本文综述的最终意义在于,通过“通过神经群体动力学进行计算”这一统一框架,将运动控制、计时、决策、记忆等不同领域的神经发现联系起来,揭示了复杂神经活动背后可能存在的共同动力学原理。它不仅总结了过去十多年的重要进展,更重要的是为未来的系统神经科学研究提供了一个强大的概念工具箱和明确的路线图,即发展能够做出可检验预测的定量模型,并设计与这些预测相匹配的因果实验,从而逐步建立连接大脑与行为的严谨计算理论。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com