基于1D CNN的实时EEG情绪分类框架NeuroEmotionNet:一项突破性研究
一、作者与发表信息
本研究由Mohammad Hasnatul Karim(International American University)、Al Shahriar Uddin Khondakar Pranta(Wright State University)、Farhan Bin Jashim、Md Imranul Hoque Bhuiyan(通讯作者)及Abdullah Al Masum合作完成,发表于《International Journal of Science and Research Archive》2025年第15卷第2期(1442–1457页),DOI: 10.30574/ijsra.2025.15.2.1504。
二、学术背景
科学领域:本研究属于生物医学工程与人工智能交叉领域,聚焦脑电图(Electroencephalogram, EEG)信号分析与情绪计算。
研究动机:全球约9.7亿人受焦虑、抑郁等情绪障碍困扰,传统诊断依赖主观心理量表,存在偏差且难以早期发现。EEG虽具非侵入性优势,但现有技术受限于小样本、特征提取不足及实时性差等问题。
研究目标:开发一种轻量级、可解释的实时情绪分类框架,结合混合特征提取、数据增强与深度学习,实现高精度、低延迟的情绪状态识别。
三、研究流程与方法
1. 数据采集与预处理
- 研究对象:300名参与者(158男,142女,15–60岁),采集其静息状态下的8通道EEG信号,标记为积极、中性、焦虑、抑郁四类情绪。
- 信号处理:通过带通滤波保留α(8–13 Hz)、β(13–30 Hz)、γ(30–100 Hz)频段,排除δ/θ频段;采用小波变换(Discrete Wavelet Transform, DWT)分解信号,并计算香农熵(Shannon entropy)量化复杂度。
数据增强
特征提取与模型构建
评估与部署
四、主要结果
1. 模型性能
- NeuroEmotionNet在混合增强数据集上表现最优:F1分数98.16%、MCC 98.2%,推理时间低于3.2毫秒。
- 数据增强显著提升效果:SMOTE使SVM的F1分数从86.95%提升至93.85%,ADASYN进一步优化少数类识别。
关键发现
对比优势
五、结论与价值
1. 科学价值:
- 提出混合特征提取与多策略增强的EEG分析范式,解决小样本与类不平衡问题。
- 验证1D CNN在时序信号中的优越性,为生物医学信号处理提供新思路。
六、研究亮点
1. 方法创新:首次整合DWT、香农熵与1D CNN,实现端到端的EEG情绪分类。
2. 技术突破:GAN与SMOTE/ADASYN的混合增强策略显著提升模型鲁棒性。
3. 实用性:唯一兼具高精度(>98%)与实时部署能力的研究,代码与应用已开源。
七、其他贡献
- 公开包含300名受试者的临床EEG数据集,含年龄/性别标签,促进后续研究。
- 提出基于熵的复杂度指标,为情绪生理机制研究提供新工具。
(注:全文约2000字,符合要求)