分享自:

基于生成式AI的本科生英语写作人机协同评价模型的构建与应用

期刊:高等继续教育学报

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


基于生成式AI的本科生英语写作人机协同评价模型的构建与应用
作者黄子芹(中南民族大学教育学院)、王静(外语学院)、万力勇(教育学院)的研究成果发表于《高等继续教育学报》(Journal of Continuing Higher Education)2025年第38卷第1期。研究由人民教育出版社“十四五”规划重点课题(2023GHB05)资助,聚焦生成式人工智能(Generative AI)在英语写作评价中的创新应用。

学术背景

研究领域为教育技术与外语教学的交叉领域。随着生成式AI(如ChatGPT)的快速发展,传统英语写作评价模式(如教师评价、同伴互评、自动写作评估系统AWE)暴露出两大问题:一是评价片面化,过度关注语法等表层语言规范,忽视内容与逻辑深度;二是反馈吸收率低,因缺乏即时性与个性化指导。研究旨在构建一个融合生成式AI的人机协同评价模型,通过优化评价流程与维度,提升写作评价的效率和质量。

研究流程与方法

研究分为模型构建与实证应用两阶段,具体流程如下:

  1. 模型构建

    • 理论基础:结合人机协同教育理念(强调机器作为认知主体与人的动态交互)和过程写作法(写作前准备、初稿、修改、反馈、重写的循环)。
    • 评价维度:设计三级框架:
      • 能力层:内容(相关性、深度、逻辑性)、组织(结构连贯性)、语言运用(语法、词汇)、独创性(创新性与非抄袭)。
      • 二级维度与具体指标:例如“内容相关性”细化为“是否符合任务要求”“事实准确性”等可量化指标。
    • 评价技术:整合四大技术——评价量表(细化评分标准)、生成式AI自动化评分系统(基于自然语言处理技术)、自适应学习算法(动态优化评价标准)、交互式反馈平台(实时互动)。
    • 评价流程:分三阶段:
      • 准备阶段:教师定义写作任务与标准,生成式AI分析学习者特征。
      • 评价阶段:初评(同伴30%+教师40%+AI 30%权重)、复评(AI整合多方反馈生成综合报告)、修改(学生与AI交互优化)、终评(AI分析修改过程与终稿)。
      • 总结反思:师生共同评估模型效果。
  2. 实证应用

    • 研究对象:Z大学19名非英语专业本科生,以2024年6月四级作文题目为任务。
    • 实施过程
      • 准备:设计提示词明确主题(“大学图书馆是否应向公众开放”)及评分标准(内容4分、组织4分、语言4分、独创性3分)。
      • 评价与修改:ChatGPT初评后,学生根据AI反馈优化语言(如修正中式英语)和组织结构(如增强段落连贯性)。例如,一名学生通过AI建议将“about this thing, if good enough”改为“if the conditions permit”。
      • 终评:AI生成写作过程报告,教师最终评分。

主要结果

  1. 模型有效性
    • 评分提升:修改后作文平均分从7.84(满分15)升至11.74,语言运用维度进步最显著(1.68→3.32)。
    • 反馈吸收:19名学生均主动咨询语言问题,12名优化结构,但仅3-4名关注内容与独创性,反映学生对深层次写作能力的认知不足。
  2. 局限性
    • AI对文章整体结构指导较弱,且部分建议偏离主题或超出学生水平。
    • 教师需投入额外时间细化评价标准。

结论与价值

  1. 科学价值
    • 提出首个融合生成式AI的英语写作评价三级维度框架,弥补了传统AWE系统在内容与逻辑评价上的空白。
    • 验证人机协同能提升评价效率(缩短修改周期)与个性化(自适应反馈)。
  2. 应用价值:为高校英语教学提供可复制的智能评价工具,推动写作评价向智能化、动态化转型。

研究亮点

  1. 方法论创新:首次将生成式AI的“类人交互”能力(如即时反馈、语义分析)嵌入写作评价全流程。
  2. 跨学科整合:结合教育理论(过程写作法)与AI技术(自然语言处理),构建“评价-反馈-优化”闭环。

其他发现

师生访谈显示,过度依赖AI可能削弱学生独立思考能力,需平衡技术辅助与自主写作训练。


此研究为人工智能赋能教育评价提供了重要范例,未来可进一步探索生成式AI在不同语言水平学习者中的差异化应用策略。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com