分享自:

利用神经科学见解构建自适应人工智能

期刊:nature neuroscienceDOI:10.1038/s41593-025-02169-w

这篇文档属于类型b,是一篇发表在《nature neuroscience》上的perspective文章,标题为”leveraging insights from neuroscience to build adaptive artificial intelligence”,作者为Mackenzie Weygandt Mathis,所属机构为瑞士洛桑联邦理工学院(EPFL)脑与心智研究所。文章于2025年在线发表,DOI为10.1038/s41593-025-02169-w。

文章的核心主题是探讨如何借鉴神经科学的发现来构建更具适应性的智能系统(adaptive artificial intelligence)。作者提出,生物智能具有天然的适应性,而当前人工智能在适应环境变化方面仍面临重大挑战。文章系统性地回顾了适应性生物智能的行为和神经基础,并探讨了受大脑启发的算法设计方法。

第一个主要观点是生物智能的适应性源于内部模型(internal models)和预测误差机制。作者详细阐述了大脑如何通过构建世界模型来克服感觉处理的延迟。神经科学研究表明,从初级视觉皮层(V1)到运动皮层(M1)等多个脑区都存在预测误差信号,这些信号用于更新内部模型。例如,Keller等人的研究发现小鼠初级视觉皮层存在”不匹配神经元”,当预期视觉反馈被干扰时会激活。这些预测误差信号是分层次处理的,不同皮层区域负责不同类型的预测误差计算。

第二个重要观点是动物实验范式的发展为研究适应性学习提供了新工具。文章介绍了多种新型行为范式,如迷宫学习任务显示小鼠能进行零样本学习(zero-shot learning)和少量样本学习(few-shot learning)。在一项研究中,小鼠在探索迷宫后仅需约10次尝试就能找到水源,学习速度比传统双选择任务快1000倍。神经记录发现内侧前额叶皮层存在任务结构记忆缓冲神经元。运动适应研究也显示,运动皮层能在学习过程中改变其编码特性,形成持久的状态变化。这些发现为理解适应性行为提供了神经机制层面的证据。

第三个关键论述是关于人工智能系统设计的启示。作者提出当前主流AI系统缺乏适应性,而持续学习(continual learning)和情境学习(in-context learning)等方向正在尝试解决这个问题。特别值得关注的是受神经科学启发的算法,如弹性权重巩固(elastic weight consolidation, EWC)、突触智能(synaptic intelligence)和记忆回放(memory replay)。EWC通过约束重要参数来防止灾难性遗忘(catastrophic forgetting),这与大脑中某些神经环路特化而其他区域保持可塑性的特点相似。记忆回放算法则模仿海马的记忆系统,在训练中插入已学习样本以防止遗忘。

第四个核心建议是构建基于模块化专业模型的智能体系统(agentic systems)。作者批评当前单一基础模型(foundation models)的范式,主张建立由多个专业编码器组成的系统,类似于大脑中功能特异但相互连接的神经环路。提出的架构包括:1)领域特定的预训练编码器;2)预测误差监测机制;3)联合潜在空间优化。这种设计既保持各模块的专业性,又能通过预测误差信号动态调整需要更新的模块,类似于大脑中基底神经节调控学习的过程。作者以行为分析为例,展示了这种系统如何自动选择适当的姿势估计模型、语义分割模型等来处理复杂任务。

文章最后强调了神经科学对AI发展的多重启示价值:1)内部模型和预测误差机制可增强系统适应性;2)模块化架构设计能提高系统鲁棒性;3)细胞多样性(如兴奋/抑制性神经元)可启发更丰富的网络结构;4)发育过程(如突触修剪)可指导模型优化策略。作者特别指出,脉冲神经网络(spiking neural networks, SNNs)因其时间编码特性和高能效,是极具潜力的生物启发计算范式。

这篇perspective的价值在于系统性地架起了神经科学与人工智能间的桥梁。它不仅总结了关键的神经科学发现,还提出了具体的技术实现路径。作者提出的模块化智能体框架为解决AI系统的适应性挑战提供了新思路,而强调预测误差和内部模型的视角则为算法设计提供了理论指导。这些见解对推动自适应智能的发展具有重要意义,同时也为神经科学研究提供了新的计算框架验证途径。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com