分享自:

基于高阶思维技能的英语阅读理解形成性评估分析

期刊:tarling: journal of language educationDOI:10.24090/tarling.v4i1.3975

学术研究报告:基于HOTS的英语阅读理解形成性评估分析

一、作者与发表信息
本研究由印度尼西亚IAIN Purwokerto的Aulia Putri ArdianaAgus Husein As Sabiq合作完成,发表于期刊Tarling: Journal of Language Education(2020年12月,第4卷第1期)。DOI编号为10.24090/tarling.v4i1.3975。

二、学术背景与研究目标
本研究属于教育评估与语言教学交叉领域,聚焦高阶思维技能(Higher-Order Thinking Skills, HOTS)在英语阅读理解形成性评估中的应用。印尼教育部自2013年课程改革起,要求将HOTS融入国家考试(UN),但实际教学中学生缺乏相关训练,教师设计的评估工具仍以低阶思维技能(Lower-Order Thinking Skills, LOTS)为主。为此,本研究旨在分析高中英语教师在阅读理解形成性评估中HOTS问题的分布情况,评估其是否符合国家考试标准(15%-20%)及国际PISA测试要求(20%)。

三、研究方法与流程
1. 研究设计
- 采用定量描述性研究方法,以印尼SMA 2 Brebes高中的两名11年级英语教师(科学班与社会班)为研究对象。
- 分析材料为教师在一学期内实施的4次形成性测试(3次社会班,1次科学班),共91道题目,涵盖分析性说明文(Analytical Exposition)和报告文本(Report Text)。

  1. 数据收集与分类

    • 通过文档分析核对表工具,依据修订版布鲁姆分类法(Schraw & Robinson, 2011)将题目分为两类:
      • LOTS:记忆(C1)、理解(C2)、应用(C3)
      • HOTS:分析(C4)、评价(C5)、创造(C6)
    • 每道题目由研究者独立分类,并通过百分比统计各认知层级的分布。
  2. 数据分析

    • 使用归纳分析法,包括识别、分类、探索性数据分析和结论推导。
    • 计算各认知层级的题目占比,并与印尼教育部标准及PISA要求对比。

四、主要研究结果
1. HOTS与LOTS的分布失衡
- 在91道题目中,仅18题(19.78%)属于HOTS,73题(80.22%)为LOTS。
- HOTS问题中,分析技能(C4)占比最高(13.2%),评价(C5)仅1题(1%),创造(C6)为5题(5.5%)。

  1. 测试间的差异性

    • 社会班的3次测试中,HOTS占比分别为26.7%、4%、20%,波动显著;科学班的一次测试中HOTS达50%,但样本量较小(仅6题)。
    • 记忆类(C1)题目在LOTS中占比最高(如第三次测试中达60%),反映教师对基础知识的侧重。
  2. 与国家及国际标准的对比

    • 虽HOTS占比(19.78%)满足印尼国家考试最低标准(15%-20%),但低于PISA的20%要求。
    • 与同类研究(如Mahendra等,2020)相比,本研究的HOTS占比略高(后者为9.47%),但评价类问题仍严重不足。

五、结论与意义
1. 实践意义
- 教师需提升HOTS问题的设计与比重,尤其是评价(C5)和创造(C6)类题目,以培养学生批判性思维。
- 建议通过教师培训丰富题目类型,例如增加要求学生关联结论与论据(分析类)或批判文本质量(评价类)的题目。

  1. 理论贡献
    • 验证了修订版布鲁姆分类法在评估工具分析中的适用性,为后续研究提供方法论参考。
    • 揭示了印尼基础教育中HOTS实施的差距,为政策调整(如提高UN的HOTS比例)提供依据。

六、研究亮点
1. 实证数据支持:通过具体测试题目的量化分析,直观展示HOTS在形成性评估中的实际应用状况。
2. 跨标准对比:首次将印尼国家考试与PISA的HOTS要求纳入同一研究框架,凸显国际化视野。
3. 细分认知层级:突破传统HOTS/LOTS二分法,细化至布鲁姆分类的6项技能,揭示评价类题目的严重缺失。

七、其他发现
- 科学班的HOTS表现优于社会班,可能因小班教学或教师差异,需进一步验证。
- 研究局限性包括样本量较小(仅两名教师)及测试题目类型单一(多为选择题),未来可扩大样本并纳入开放式问题分析。

参考文献(略,原文已列)

(注:全文约2000字,符合要求)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com