本研究的核心作者团队包括:
- Aishwarya Chandrasekaran(第一作者,University of Delaware)
- London Bielicke(Rhodes College)
- Diya Shah 和 Harisha Janakiraman(University of Delaware)
- Matthew Louis Mauriello(通讯作者,University of Delaware)
该研究发表于2025年ACM人机交互会议(CHI ‘25),会议于4月26日至5月1日在日本横滨举行,论文标题为《”我花14小时调试一个作业”:面向计算机科学学生心理健康的计算机介导个人信息学研究》。
本研究属于人机交互(Human-Computer Interaction, HCI)与健康信息学(Health Informatics)交叉领域,特别关注计算机科学(Computer Science, CS)学生的心理健康问题。已有研究表明CS学生的焦虑和抑郁症状比例是其他本科生的两倍,较普通人群高5-10倍,但导致这一现象的具体因素尚未明确。
研究团队通过前期需求调研访谈(n=20)发现:
1. 调试代码的复杂性与冒名顶替综合征(Imposter Syndrome)是造成CS学生压力与倦怠的关键因素
2. 学生缺乏对自身压力状态的觉察
3. 参与者对基于计算机的个人信息学(Personal Informatics, PI)工具表现出强烈兴趣
基于此,团队开发了EmotionStream——一种算法辅助的PI工具,旨在通过结合情境数据(活动类型、应用使用等)与情绪状态监测,帮助学生实现自我反思。研究主要验证:(1)工具的可用性;(2)自动情绪识别(Automated Emotion Recognition, AER)模型在压力预测中的可靠性。
采用60分钟的半结构化访谈,通过Zoom收集CS学生的压力源与工具偏好。使用Braun和Clarke的主题分析框架进行编码(Cohen’s κ=0.77)。关键发现:
- 调试压力:90%参与者描述陷入”错误检测-引入新错误”的恶性循环,产生愤怒、沮丧等情绪
- 冒名顶替综合征:60%参与者自述能力怀疑,尤其在跨文化/女性学生中显著
- 状态觉察缺失:35%参与者因持续调试导致压力认知延迟,引发睡眠剥夺
- 技术偏好:80%倾向电脑端工具,要求实时情绪监测(通过面部表情、键鼠数据)与隐私保护
EmotionStream包含三大模块:
1. 被动监测系统
- 面部情绪识别:采用Residual Masking Network(RMN)和DeepFace模型,每秒捕捉七类基础情绪(愤怒、厌恶等)
- 情境日志:记录键速、鼠标移动、应用切换等行为指标
- 隐私保护:不存储面部图像或具体按键内容
主动反馈系统
可视化看板
参与者在自然环境下使用工具一周,产生408份有效ESM响应。数据分析采用:
1. 描述性统计:计算活动类型与压力值的相关性
2. 模型验证:对比AER模型预测与自我报告情绪的准确性
3. 压力预测:构建随机森林模型,结合情境特征(如应用类型、时间)预测实时压力
研究强调自主权保护(数据本地存储、匿名化),同时警示依赖AER模型的伦理风险——可能强化性别/种族偏见。
作者建议:(1)扩大样本多样性(尤其少数族裔);(2)探索长期压力数字表型;(3)开发跨OS版本以提升普及性。这项研究为理解技术密集型学科的心理健康挑战树立了新范式。