分享自:

生成式AI在学术写作中的应用:学生视角下的挑战与机遇

期刊:journal of academic writingDOI:10.18552/joaw.v15is2.1224

类型a:学术研究报告

作者及机构
本研究的两位主要作者为Tine Wirenfeldt Jensen(隶属丹麦奥胡斯大学/Metodo研究中心)和Søren Wirenfeldt Jensen(隶属IttyBits公司)。研究发表于期刊《Journal of Academic Writing》2025年第15卷增刊2期,文章标题为《AI Literacy in the Context of Working with Sources: Pitfalls and Possibilities of Generative AI Models in Academic Writing》。

学术背景
研究领域聚焦生成式人工智能(Generative AI, GenAI)在学术写作中的应用,尤其是ChatGPT等工具在文献检索与引用中的潜在作用。研究动机源于教育界对GenAI的两极化态度:一方面,学生已广泛使用ChatGPT辅助写作;另一方面,学术界普遍警告其可能生成虚假参考文献(即“幻觉引用”,hallucinated references)。研究团队提出“想象可供性”(imagined affordances)理论框架,探讨学生如何基于主观认知(而非技术原理)与AI交互,并评估不同策略下ChatGPT生成参考文献的可用性差异。

研究流程
1. 策略设计:基于“想象可供性”理论,设计6种学生可能采用的ChatGPT提示策略(见表1),涵盖直接请求、技术性修正(如要求“可验证链接”)、模拟教授语气、分步对话等。
2. 实验设置
- 模型版本:测试ChatGPT 3.5(2023年初)与4o(2024年中)两个版本。
- 学科主题:选择修辞学(“种族话语与语言”)、生物学(“无细胞系统”)、法学(“隐私权与监控”)三个领域,由第一作者根据教学经验选定。
- 验证标准:参考文献的“可用性”定义为标题与作者信息可通过Google Scholar或期刊网站验证,忽略格式细节(如出版年份差异)。
3. 数据收集:每个策略在每学科主题下重复3次,共生成344条(3.5版)和386条(4o版)参考文献,通过BibTeX格式化后程序化提取作者与标题信息。
4. 验证方法:结合模糊字符串匹配与人工核查,确保数据可靠性。

主要结果
1. 学科差异显著:ChatGPT生成参考文献的可用率因学科而异。例如,3.5版在“隐私权”主题下“要求可验证链接”策略的可用率仅6%,而“无细胞系统”同一策略达67%(图1)。
2. 模型性能提升:4o版整体表现更优,如“模拟教授语气”策略在法学主题下可用率从83%(3.5版)升至100%(图2)。
3. 策略有效性
- 技术无效但实用的策略:如“要求可验证链接”(技术上ChatGPT无法验证链接)在部分学科中仍能生成高可用性结果。
- 分步对话策略(“conversational style”)在4o版中表现突出,可用率普遍超过90%,体现模型对话能力的进步。
4. 最佳与最差案例:4o版在最佳情况下(如法学主题)多策略可达100%可用率,而最差情况下(如生物学“分步对话”策略)仍优于3.5版平均水平(图3-4)。

结论与价值
1. 理论贡献:揭示了学生“想象可供性”与实际技术功能间的鸿沟,强调AI素养教育需兼顾学生认知与技术现实。
2. 实践意义
- 反对“一刀切”禁用ChatGPT的建议,主张通过开放对话引导学生批判性使用AI工具。
- 提出AI素养教育三大方向:消除实验污名化、重视“想象可供性”的影响、加强跨学科协作(如写作教师与图书馆员的角色)。
3. 技术迭代启示:ChatGPT 4o的进步表明,未来学生可能更依赖AI辅助文献工作,需动态调整教育策略。

研究亮点
1. 方法论创新:首次系统测试学生视角下的ChatGPT提示策略,结合定量验证与质性理论分析。
2. 跨学科数据:揭示AI工具在不同学科中的性能差异,为学科特异性教学提供依据。
3. 时效性:追踪ChatGPT 3.5至4o的演进,记录技术快速迭代对学术实践的影响。

其他发现
研究指出,当前学术机构对AI的“反作弊”话语可能阻碍师生间坦诚交流,呼吁建立非评判性讨论空间,以避免教育者与学生的认知脱节。附录中详细列出的数据(如分学科可用率表格)为后续研究提供了可复现的基准。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com