学术报告:人工智能伦理教育在高校写作课程中的实践探索
作者及发表信息
本研究由Goldey-Beacom College图书馆与档案馆馆长Russell Michalak及合作者Devon Ellixson共同完成,发表于2025年3月的*Journal of Library Administration*(第65卷第3期,361-377页),标题为《Fostering Ethical AI Integration in First-Year Writing: A Case Study on Human-Tool Collaboration in Artificial Intelligence Literacy》。研究聚焦人工智能(AI)工具在高校一年级写作课程中的伦理整合问题,提出以“人机协作”为核心的教学框架。
研究背景与目标
随着AI技术(如生成式AI、机器学习)在教育领域的快速渗透,学术诚信、原创性及技术依赖性等问题日益凸显。例如,Grammarly、Scholarcy等工具虽能辅助写作,但可能削弱学生的批判性思维与自主性。本研究基于Lo提出的CLEAR框架(Concise, Logical, Explicit, Adaptive, Reflective),旨在设计一种兼顾技术应用与伦理教育的教学模式,目标包括:
1. 伦理素养培养:通过结构化练习引导学生批判性评估AI输出;
2. 人机协作模式:将AI定位为“合作者”而非权威来源;
3. 教育公平性:解决技术访问差异对学习效果的影响。
核心内容与论据
1. 伦理框架与教学实践
研究以179名大一学生为对象,在16周课程中设计三项AI驱动任务:
- 叙事作文修订(Grammarly):学生需评估AI语法建议是否保留个人叙事风格。数据显示,学生共处理101万条建议,采纳率56.3%,但拒绝修改建议中可能削弱“叙事独特性”的部分。
- 文献摘要(Scholarcy):学生对比自写摘要与AI生成内容,分析偏差与深度差异。技术障碍(如DRM限制)促使团队采用高分辨率扫描仪(1600 DPI)解决文本识别问题。
- 创意图像生成(ImageFX):基于小说《War for Kindness》主题,学生通过迭代提示词设计图像,探讨“共情”的视觉表达。
支持理论:CLEAR框架强调提示词设计的伦理意图(如“如何在不牺牲原创性的前提下优化表达?”),确保学生始终掌握决策权。
2. 伦理争议与包容性设计
部分学生拒绝使用AI,质疑其“艺术完整性”与数据隐私风险。例如,一名学生在论文《My Qualms with Artificial Intelligence》中指出,AI修订会消解“作品真实性”。研究通过以下措施回应:
- 替代方案:提供同伴互评、手工修订等非技术路径;
- 公平评估:评分标准侧重“原创性”而非工具使用;
- 数据伦理讨论:纳入AI企业如何利用用户数据的批判性分析。
数据支持:课前调查显示,84%学生认为用AI代写属学术不端,但仅34%反对用AI生成提纲,凸显伦理认知的复杂性。
3. 技术可及性与制度保障
为缩小数字鸿沟,Goldey-Beacom College采取:
- 机构授权:采购Grammarly、Scholarcy等工具的集体许可;
- 课堂资源:提供校内设备与1.5小时/日的免费ImageFX代币;
- 灵活设计:作业需在课内完成,避免课外技术门槛影响公平性。
研究价值与创新点
1. 教育模式创新:首次将CLEAR框架应用于写作课程,提供可复制的“技术-伦理”双轨教学模板;
2. 实证数据支撑:通过百万级交互数据,验证人机协作对保留学生主体性的有效性;
3. 社会意义:为AI时代的高等教育公平性、数据隐私保护等议题提供实践参考。
亮点
- 批判性AI素养:学生不仅学习工具使用,更需论证其选择(如拒绝某条AI建议的原因);
- 跨学科整合:结合文学创作、视觉艺术与技术伦理,拓展AI教育的多维视角;
- 低成本可推广性:依托免费/低成本工具(如ImageFX),适合资源有限的院校。
局限与未来方向
研究承认,免费工具的 analytics 功能不足,难以量化追踪长期学习效果。未来需探索兼顾数据采集与隐私保护的评估方案,并延伸至STEM等学科验证框架普适性。
结语
本研究为AI时代的教育者提供了关键启示:技术整合必须服务于“人的发展”。通过伦理框架与制度保障,高校能培养学生成为技术的审慎使用者,而非被动依赖者。