分享自:

非母语者预测的两个阶段:视觉世界眼动追踪研究

期刊:bilingualism: language and cognitionDOI:10.1017/s1366728922000499

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


作者与机构
本研究由Ruth E. Corps(马克斯·普朗克心理语言学研究所)、Meijian Liao和Martin J. Pickering(爱丁堡大学心理学系)合作完成,发表于2023年的期刊*Bilingualism: Language and Cognition*,标题为《Evidence for two stages of prediction in non-native speakers: A visual-world eye-tracking study》。


学术背景
研究领域为心理语言学与二语习得,聚焦于语言理解中的预测机制(prediction)。背景知识显示,母语者(L1)在语言理解时会通过上下文预测后续内容,且这种预测可能分为自动(automatic)和非自动(non-automatic)两个阶段。然而,非母语者(L2)的预测机制是否与L1相似尚不明确。本研究旨在通过视觉世界眼动追踪范式(visual-world eye-tracking paradigm)探究L2预测的分阶段特征,并比较其与L1预测的差异。

研究目标包括:
1. 验证L2预测是否包含自动关联预测(associative prediction)和非自动一致性预测(consistent prediction)两阶段;
2. 分析L2一致性预测是否因认知资源限制而比L1更延迟。


研究流程
1. 实验设计
- 参与者:32名高熟练度L2英语学习者(平均年龄25.33岁,男女各半),母语包括中文、意大利语等,英语接触时间平均17.5年,雅思平均7.46分。
- 材料
- 性别化句子:如“I would like to wear the nice…”,搭配性别刻板关联的图片(如男性化目标:领带;女性化目标:裙子)。
- 中性句子:如“I would like to eat the nice…”,搭配中性物品图片(如苹果、香蕉)。
- 所有句子由男女英语母语者录制,时长和音节匹配。

  1. 实验程序

    • 熟悉阶段:参与者学习112张图片及其名称,确保识别准确率(平均89%)。
    • 眼动追踪阶段
      • 参与者听句子同时观看四张图片,眼动仪记录注视点。
      • 关键动词(如“wear”)出现后,分析对关联目标(如领带、裙子)与无关干扰物(如电钻、吹风机)的注视比例。
    • 后测:参与者对图片的性别刻板印象评分(1-100分),验证材料有效性。
  2. 数据分析

    • 自举分析法(bootstrapping analysis):通过2000次重采样,确定注视比例差异的起始时间点(divergence point)。
    • 关键对比:
      • 关联预测:比较关联目标与无关干扰物的注视比例。
      • 一致性预测:比较与说话者性别一致的目标与不一致目标的注视比例。

主要结果
1. 两阶段预测的验证
- 关联预测:L2参与者在动词出现后527毫秒即显著注视语义关联目标(如“wear”后注视领带或裙子),支持自动激活机制。
- 一致性预测:在957毫秒后,L2参与者更倾向于注视与说话者性别一致的目标(如男性说话者时注视领带),表明非自动阶段的存在。
- 时间差:一致性预测比关联预测延迟362毫秒,支持两阶段模型。

  1. L2与L1的差异
    • 与Corps等(2022)的L1数据相比,L2的一致性预测显著延迟251毫秒,而关联预测无差异。
    • L2参与者对图片的总注视时间(75%)低于L1(91%),可能反映更高的认知负荷。

结论与意义
1. 理论贡献
- 首次证实L2预测同样包含自动与非自动两阶段,支持Kaan(2014)关于L1/L2预测机制相似的观点。
- 非自动阶段的延迟表明,L2的一致性预测需要更多认知资源,符合Pickering和Gambi(2018)的“预测-生产模型”(prediction-by-production model)。

  1. 应用价值
    • 为二语教学提供启示:高认知负荷可能限制L2学习者的实时预测能力,需针对性设计训练任务。
    • 方法学上,眼动追踪与自举分析结合为语言预测研究提供了新范式。

研究亮点
1. 创新性发现:首次揭示L2预测的分阶段特性及与L1的时效差异。
2. 方法创新:通过性别刻板印象操纵与时间精细化分析,区分预测的自动与非自动成分。
3. 跨语言适用性:参与者涵盖多母语背景,增强结论的普适性。


其他价值
研究数据与脚本已在Open Science Framework公开,支持可重复性研究。附录提供了完整的实验材料(如句子列表与图片名称),便于后续研究直接引用。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com