这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
本研究由Yahia H. Ali(埃默里大学与佐治亚理工学院生物医学工程系)领衔,联合来自西北大学、加州大学戴维斯分校、布朗大学、哈佛医学院等14家机构的共21位作者合作完成,通讯作者为Chethan Pandarinath。研究成果发表于Journal of Neural Engineering(2024年4月17日),标题为《BRAND: A platform for closed-loop experiments with deep network models》,开放获取(DOI: 10.1088⁄1741-2552/ad3b3a)。
科学领域:本研究属于神经工程与脑机接口(Brain-Computer Interface, BCI)领域,聚焦于闭环实验系统的实时计算框架开发。
研究背景:
- 人工神经网络(Artificial Neural Networks, ANNs)在神经活动建模和解码中表现出色,但现有实时系统(如Simulink、RTXI)对Python等高层次语言支持不足,导致ANN模型难以直接部署于闭环实验。
- 闭环BCI需满足毫秒级延迟要求(如动作电位处理需亚毫秒级响应),而传统系统多依赖C/C++,与机器学习生态(如PyTorch、TensorFlow)兼容性差,形成“翻译鸿沟”。
研究目标:
开发BRAND(Backend for Realtime Asynchronous Neural Decoding)平台,解决三大核心需求:
1. 支持原生Python环境运行ANN模型;
2. 兼容54种编程语言(如Julia、MATLAB);
3. 实现亚毫秒级进程间通信(Inter-Process Communication, IPC)。
实验1:通信延迟测试
- 方法:模拟Blackrock神经信号处理器(30 kHz采样率),测量Python节点间数据传输延迟。
- 结果:
- 1024通道数据传递延迟<600微秒(图2);
- 增加订阅节点(1→4)或调整采样率(100–1000 Hz)不影响稳定性。
实验2:脑机接口控制
- 流程:
1. 模拟192通道神经数据(30 kHz)→ 高通过滤(250 Hz)→ 阈值检测(−3.5×RMS)→ 10 ms分箱;
2. 解码器对比:
- 最优线性估计器(Optimal Linear Estimator, OLE):延迟<0.6 ms;
- 循环神经网络(Recurrent Neural Network, RNN):延迟<1.2 ms(图3);
3. 复杂模型测试:
- LFADS(Latent Factor Analysis via Dynamical Systems):延迟 ms;
- NDT(Neural Data Transformer):延迟 ms(图4)。
- 临床验证:
- 参与者T11(脊髓损伤患者)通过RNN解码器控制光标,中位目标获取时间1.79秒,性能媲美传统OLE(图3d)。
实验3:神经数据模拟
- 语音模拟器:音频→梅尔频率倒谱系数(MFCC)→ 96通道30 kHz电压信号,端到端延迟 ms(图5)。
- 光标控制模拟器:鼠标移动→余弦调谐模型→神经放电率→模拟信号,延迟 ms。
结果逻辑链:
1. 亚毫秒级IPC(实验1)→ 确保实时性;
2. ANN低延迟推理(实验2)→ 解决模型部署难题;
3. 多任务模拟(实验3)→ 扩展至语音BCI等新场景。
科学价值:
- 提出首个支持多语言、分布式、低延迟的神经解码框架,填补了机器学习与实时系统间的技术空白。
- 为复杂模型(如LFADS)的闭环验证提供标准化工具,推动计算神经科学发展。
应用价值:
- 加速BCI技术临床转化(如瘫痪患者通信、康复设备控制);
- 开源代码(MIT许可证)已获7个实验室采用,生态持续扩展(GitHub: brandbci/brand)。
(全文约2000字)