这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
作者及机构
Kosuke Sasaki、Zhen He、Tomoo Inoue(均来自日本筑波大学)
发表信息
期刊:Journal of Universal Computer Science
卷期:Vol. 29, No. 11 (2023)
发表日期:2023年11月28日
研究领域
本研究属于教育技术与计算机支持的协作学习(CSCL)交叉领域,聚焦远程项目式学习(Project-Based Learning, PBL)中的学习者参与度(engagement)监测与支持。
研究动机
远程学习的普及导致师生互动减少,而PBL中学习者参与度对任务完成和知识掌握至关重要。传统文本报告缺乏非语言信息(如语音停顿、表情),难以准确评估参与度。基于此,研究者提出利用视频活动报告(Video Activity Reports)捕捉语言与非语言信息,以支持教师远程识别学习者参与度变化。
理论基础
1. 参与度定义:采用Schaufeli等人的三维模型,包括活力(vigor)、奉献(dedication)和专注(absorption)。
2. 活动报告的作用:已有研究表明,视频报告比文本报告能提供更多情绪与认知状态线索(如填充停顿(filled pauses)和静默停顿(silent pauses))。
3. 技术可行性:He等人(2022)的初步研究证实了视频报告与员工参与度的关联性,但尚未在PBL场景中验证。
研究目标
1. 验证视频报告的言语与非言语信息与学习者参与度的关联性。
2. 设计AI支持系统的原型,帮助教师实时监测参与度。
研究对象与数据收集
- 参与者:8名研究生(男性,年龄23–26岁),均从事远程科研项目(PBL)。
- 数据量:共232份视频报告及对应的每日参与度问卷(UWES-3量表)。
- 实验周期:2020年8月至11月,工作日每日提交报告。
实验设计
1. 视频报告录制
- 内容:每日学习或研究进展(如文献阅读、实验设计)。
- 要求:面部清晰、环境安静,时长约30秒(无严格限制)。
2. 参与度测量
- 使用改编版UWES-3问卷(3个问题,评分0–6分),计算每日平均得分。
3. 数据处理与分析
- 言语信息分析:通过Google Cloud Speech-to-Text API转写文本,人工标注负面表达(如“未完成”“进展不顺”)。
- 非言语信息分析:人工标注填充停顿(如“呃”“嗯”)和静默停顿(>1秒),统计频率与时长。
- 统计方法:Welch’s t检验比较高低参与度组的差异,计算效应量(Cohen’s d)。
技术工具
- ELAN软件:用于标注语音停顿。
- BERT模型:尝试自动化情感分析(但准确率有限,需人工辅助)。
言语信息与参与度的关系
非言语信息与参与度的关系
视频长度与参与度
科学意义
1. 首次验证视频活动报告在PBL场景中监测参与度的有效性,填补了远程教育中实时评估工具的空白。
2. 提出非言语信息(如停顿模式)作为参与度指标的理论依据,扩展了CSCL领域的研究维度。
应用价值
1. 教师支持系统:原型系统可通过自动分析视频报告,提示教师关注参与度下降的学生(如高频填充停顿或负面表达)。
2. AI技术整合:未来可通过深度学习优化个体化参与度模型(如结合面部表情、语音语调)。
局限性
- 样本单一(同实验室研究生),需扩大至不同学科与文化背景群体。
- 自动化情感分析(BERT)在日语报告中的准确率有待提升。
(报告字数:约2000字)