这篇文档属于类型b(文献综述类论文)。以下是详细的学术报告内容:
本研究由德国波恩大学医院医学教育研究所的Matthias Carl Laupichler*、Alexandra Aster、Jana Schirch和Tobias Raupach合作完成,发表于2022年9月26日的期刊《Computers and Education: Artificial Intelligence》(第3卷,文章编号100101)。论文题为《Artificial Intelligence Literacy in Higher and Adult Education: A Scoping Literature Review》,通过系统性文献综述,分析了高等教育和成人教育中人工智能素养(AI literacy)的研究现状、定义及教学实践。
随着人工智能(AI)技术在日常生活中的渗透,提升非专业人士的AI素养成为重要议题。论文指出,尽管儿童早期AI教育备受关注,但高等教育和成人群体同样需要基础的AI理解能力,即“AI literacy”(人工智能素养),以便有效与技术互动。然而,这一领域的研究仍处于起步阶段,定义模糊,教学内容缺乏共识。因此,作者通过范围性文献综述(scoping review),旨在识别当前研究的主题焦点、定义分歧及实践趋势。
作者梳理了AI literacy的核心定义,指出其最早由Konishi(2015)提出,后经Long & Magerko(2020)完善为“一组使个体能够批判性评估AI技术、与AI有效沟通协作,并在家庭、职场和线上环境中使用AI的能力”。论文对比了不同学者对AI literacy的划分:
- 技能导向型:如Liu & Xie(2021)认为AI literacy包含数字素养(digital literacy)、计算思维(computational thinking)和编程能力。
- 批判反思型:Ng等(2021a)提出四维度模型(理解、应用、评估、伦理),强调非技术背景学习者的需求。
- 争议点:部分研究(如Karaca等2021)提出“AI readiness”(人工智能准备度),侧重职业场景中的知识储备;而Markauskaite等(2022)批评“literacy”术语局限性,主张用“AI capabilities”(人工智能能力)涵盖更广泛的人类原有能力(如协作、创造力)。
支持证据:综述纳入的30篇文献中,16篇引用了Long & Magerko的定义,显示其影响力;但不同学科(如医学、商科)对AI literacy的侧重点差异显著,反映定义的领域依赖性。
论文通过PRISMA框架筛选了900篇文献,最终纳入30篇符合条件的研究(2016–2022年)。结果显示:
- 地域集中性:北美(43%)和东亚(33%)主导研究,美国、加拿大、中国、韩国为主要贡献国;欧洲研究较少。
- 学科分布:教育学(33%)和医疗健康(30%)是两大主要领域,其次是计算机科学(17%)和商科(10%)。
- 研究类型:37%为课程设计(如医学院AI伦理课),23%为实证研究(如问卷调查医学生对AI的态度),23%为理论综述。
数据支持:图1显示“AI literacy”相关论文自2016年起逐年增长,2021年达峰值,表明研究热度上升。
作者分析了10项课程案例,总结以下趋势:
- 教学形式:50%课程采用编程实践(如Python训练),但争议在于是否需编程技能(Long & Magerko认为非必需)。
- 内容设计:70%课程包含AI基础(如“什么是AI”)、机器学习(machine learning)和伦理模块;30%专门探讨算法偏见(algorithmic bias)。
- 评估短板:多数课程依赖自评量表,缺乏标准化测量工具。
典型案例:
- Kong等(2021)的大学课程通过翻转课堂(flipped classroom)缩小计算机专业与非专业学生的AI素养差距。
- Xu & Babaian(2021)为商科学生设计的课程结合案例分析与编程,但学生反馈技术内容过难。
论文提出三大挑战:
1. 定义统一:需跨学科共识,区分AI literacy与类似概念(如数据素养)。
2. 测量工具:开发效度验证的AI素养评估量表(Ng等2021b呼吁)。
3. 教学适应性:针对不同成人群体(如医护人员vs.教师)设计差异化内容。
(注:全文约2100字,涵盖文献综述的核心观点、证据链及学术价值,符合类型b的汇报要求。)