分享自:

学生对生成式人工智能技术在高等教育中使用的看法

期刊:国际教育诚信期刊DOI:10.1007/s40979-024-00149-4

类型a:学术研究报告

作者与机构
本研究由利物浦大学图书馆、博物馆和画廊部门的Heather Johnston、Rebecca F. Wells、Elizabeth M. Shanks、Timothy Boey和Bryony N. Parsons(通讯作者)共同完成,发表于2024年的《国际教育诚信期刊》(International Journal for Educational Integrity),DOI编号为10.1007/s40979-024-00149-4。

学术背景
本研究属于高等教育与学术诚信交叉领域,聚焦生成式人工智能(Generative Artificial Intelligence, GAI)技术(如ChatGPT)对学生学术行为的影响。研究背景源于两个核心问题:
1. 技术迭代与政策滞后:传统学术诚信政策(如利物浦大学的《行为准则》)无法适应GAI技术的快速普及,尤其是ChatGPT等工具在学术写作中的潜在滥用风险。
2. 学生需求空白:现有研究多关注代写平台等传统作弊形式,缺乏对学生GAI使用态度的实证分析。

研究目标包括:
- 调查学生对GAI技术的认知、使用场景及态度;
- 分析学术写作信心与GAI使用行为的关系;
- 为制定以学生为中心的学术诚信政策提供依据。

研究流程与方法
1. 问卷设计与验证
- 设计阶段:由图书馆学术技能团队的3名学生基于Jisc平台设计初稿,包含9个核心问题,涵盖技术认知、使用目的、政策偏好等维度。
- 验证阶段:通过3次焦点小组(共24名学生)测试问卷合理性,调整敏感问题(如将“英语母语”改为“学术写作信心”)。

  1. 数据收集

    • 样本规模:2555名利物浦大学学生参与(占全校8.86%),覆盖本科(69.7%)、授课型研究生(22.7%)和研究型研究生(6.5%)。
    • 推广方式:通过虚拟学习环境公告、校内海报和邮件推送,历时4周(2023年3-4月)。
  2. 数据分析

    • 工具:Excel和SPSS 28,采用曼-惠特尼U检验(比较学术信心与GAI使用倾向)和古德曼-克鲁斯卡尔伽马检验(分析序数数据相关性)。
    • 定性分析:对1131条开放式回答进行主题编码(如语法辅助、概念理解等)。

主要结果
1. 技术普及率
- 88.5%学生知晓Grammarly,68.9%知晓ChatGPT;仅7%从未接触GAI技术。
- 50.9%学生曾为学术目的使用或考虑使用GAI,其中35%用于语法检查(如Grammarly),但70.4%反对用ChatGPT撰写全文。

  1. 学术信心与行为关联

    • 高信心学生(自评4-5分)更少使用GAI(中位数3分 vs. 低信心组4分,p<0.01),且对他人使用持批判态度(55.7%高信心者反对全文代写,低信心组仅30.2%)。
  2. 政策需求

    • 41.1%学生呼吁全校统一政策,明确GAI使用边界;仅4.5%支持全面禁止。
    • 自由文本反馈显示,学生强调GAI对残障人士(17条)和非英语母语者(10条)的辅助价值。

结论与价值
1. 科学价值
- 首次大规模量化学生GAI使用态度,揭示“技术接受度分层”现象:工具性辅助(如语法检查)被广泛认可,而内容生成(如论文代写)被视为违规。
- 提出“学术信心-技术使用”负相关模型,为后续教育心理学研究提供框架。

  1. 应用价值
    • 为高校政策制定提供实证依据,建议:
      • 区分GAI的技术辅助与内容生成场景;
      • 开发校内GAI培训项目,提升学生批判性使用能力;
      • 确保技术可及性,避免付费工具造成不平等。

研究亮点
1. 方法创新:通过学生参与式设计(焦点小组+问卷协同开发),增强工具效度。
2. 发现新颖性:揭示Z世代学生对GAI的辩证认知——既拥抱技术便利,又警惕学术伦理风险。
3. 政策前瞻性:提出“动态监管”框架,平衡技术发展与学术诚信。

其他价值
- 开放数据集(DOI:10.17638/datacat.liverpool.ac.uk/2297)为后续跨文化比较研究提供基准。
- 学生反馈中涌现的创新用途(如编程教学辅助、神经多样性支持)为GAI教育应用开发指明方向。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com