这篇文档属于类型a,是一篇关于脑机接口(Brain-Computer Interface, BCI)与人工智能协同控制的研究报告。以下是详细的学术报告内容:
脑机接口与人工智能协同控制的研究突破
作者及机构
本研究由来自加州大学洛杉矶分校(University of California, Los Angeles)电气与计算机工程系的Johannes Y. Lee、Sangjoon Lee、Abhishek Mishra、Xu Yan等共同完成,通讯作者为Jonathan C. Kao。研究成果发表于2025年9月的《Nature Machine Intelligence》期刊,标题为《Brain–computer interface control with artificial intelligence copilots》。
学术背景
脑机接口(BCI)技术通过解码神经信号帮助瘫痪患者恢复运动与交流能力,但过去二十年的临床应用中,性能与成本/风险的平衡始终是核心挑战。本研究提出“共享自主权”(shared autonomy)框架,通过人工智能(AI)协同系统(copilot)与BCI用户协作完成任务目标,旨在显著提升非侵入式BCI的性能。研究聚焦两个关键方向:
1. 解码架构创新:结合卷积神经网络(CNN)与卡尔曼滤波器(Kalman Filter, KF),开发自适应解码方法,实现基于脑电图(Electroencephalography, EEG)的计算机光标与机械臂控制。
2. AI协同系统设计:针对光标控制与机械臂抓取任务,分别设计基于强化学习(RL)和计算机视觉(CV)的AI copilot,验证其在瘫痪患者中的性能提升。
研究流程与方法
1. 非线性自适应EEG解码器开发
- 研究对象:3名健康参与者(H1, H2, H4)和1名T5完全性截瘫患者(S2)。
- 解码架构:采用CNN(EEGNet)提取EEG非线性特征,输出作为线性KF的观测值,通过闭环解码器适应(Closed-Loop Decoder Adaptation, CLDA)实时更新参数。
- 训练任务:
- 开环训练:参与者执行四种动作(左/右手、双脚、静止),采集EEG数据训练初始解码器。
- 去相关闭环训练:通过随机提示动作与目标位置,消除眼动对解码的干扰,确保解码基于感觉运动信号而非眼动伪迹。
- 性能验证:在“中心-外扩8目标”(centre-out 8)任务中测试光标控制性能,目标直径从7 cm逐步缩小至2.3 cm,记录命中率与任务完成时间。
主要结果
1. 解码器性能
- 所有参与者(包括S2)在5天内实现稳定光标控制,中位命中率达88%(S2)至100%(健康参与者),中位任务完成时间为7.0–10.1秒。
- CNN-KF通过CLDA有效消除速度偏差,适应EEG非平稳性(图3c)。
结论与价值
1. 科学价值:
- 提出“共享自主权”框架,证明AI copilot可通过任务结构、历史运动与CV信息推断用户目标,显著降低BCI对神经解码维度的依赖。
- 开发的CNN-KF架构为非侵入式BCI提供了可跨日稳定的解码方案。
2. 应用价值:
- 为瘫痪患者提供高性能、低成本的机械臂与计算机控制工具,推动BCI临床转化。
- 方法论可扩展至侵入式BCI,为复杂任务(如精细操作)提供新思路。
研究亮点
1. 创新方法:首次将深度强化学习与CV结合的AI copilot用于非侵入式BCI,解决目标导向任务中的效率瓶颈。
2. 跨日稳定性:通过CLDA与去相关训练,实现解码器的“即插即用”(plug-and-play)性能。
3. 临床适用性:在瘫痪患者中验证性能,为运动功能障碍群体提供实用解决方案。
其他发现
- 研究发现截瘫患者(S2)的解码性能与幻痛(phantom pain)负相关,提示未来需研究神经信号鲁棒性与疼痛的关系。
- 眼球运动对EEG解码的干扰通过去相关训练有效消除,为BCI信号处理提供新参考。
这篇报告详细呈现了研究的学术逻辑与技术细节,突出了其在BCI领域的突破性贡献。