分享自:

自动驾驶中非驾驶相关任务的显示器视觉行为及其影响

期刊:multimodal technol. interact.DOI:10.3390/mti5040021

学术研究报告:条件自动驾驶中非驾驶相关任务的显示方式对视觉行为及绩效的影响

研究作者及发表信息

本研究由 Clemens Schartmüller(Technische Hochschule Ingolstadt 和 Johannes Kepler University Linz)、Klemens Weigl(Technische Hochschule Ingolstadt 和 Catholic University of Eichstätt-Ingolstadt)、Andreas LöckenPhilipp Wintersberger(Technische Hochschule Ingolstadt 和 TU Wien)、Marco Steinhauser(Catholic University of Eichstätt-Ingolstadt)和 Andreas Riener(Technische Hochschule Ingolstadt 和 Johannes Kepler University)共同完成。论文于 2021 年 4 月发表在期刊 Multimodal Technologies and Interaction(MTI)上,标题为 “Displays for Productive Non-Driving Related Tasks: Visual Behavior and its Impact in Conditionally Automated Driving”


学术背景

研究领域

本研究属于 自动驾驶人机交互(Human-Machine Interaction in Automated Driving)领域,重点关注 SAE L3(条件自动化驾驶)环境下,驾驶员进行 非驾驶相关任务(Non-Driving Related Tasks, NDRTs) 时的视觉行为、工作负荷及任务绩效。

研究动机

随着自动驾驶技术的发展,SAE L3 车辆允许驾驶员在特定条件下不监控道路,但仍需在必要时接管车辆控制(即 Take-Over Request, TOR)。然而,NDRT 可能在接管时影响驾驶员的 情境意识(Situation Awareness, SA) 和接管表现。以往研究多集中于低自动化等级(SAE L0-L2)下的驾驶分心问题,而对 L3 条件下 NDRT 显示方式(如抬头显示 vs. 语音提示)对视觉分散和接管绩效的影响 研究较少。

研究目标

本研究的核心问题是:
1. 视觉行为(RQ1):不同 NDRT 显示方式(HUD vs. ASD)如何影响驾驶员的视觉注意分配?
2. 任务绩效(RQ2):视觉行为如何与工作负荷、接管绩效和用户主观评价关联?

此外,研究假设 听觉显示(ASD) 可能降低视觉干扰,而 抬头显示(HUD) 可能因视觉任务导致注意力过度集中于道路中心区域。


研究流程

1. 实验设计与设备

  • 实验类型:室内驾驶模拟器研究,被试内设计(within-subjects),每个被试在 HUDASD 条件下各完成一次驾驶任务。
  • 被试样本:53 名持有驾照的参与者(27 女,26 男,平均年龄 29 岁)。
  • 设备
    • 驾驶模拟器:Hexapod 六自由度运动平台,配备 Volkswagen Golf 驾驶舱。
    • 眼动追踪Tobii Pro Glasses 2(100Hz),用于记录凝视行为。
    • 生理测量:皮肤电反应(GSR)和瞳孔直径(Pupillometry),用于评估工作负荷。

2. 实验流程

  1. 训练阶段:参与者学习如何在模拟器中执行 接管任务(TOR)
  2. 正式实验
    • 每个驾驶阶段包含:
      • 自动化驾驶(Automated Driving, AD)+ NDRT:参与者执行文本理解任务(80 个语义判断句子)。
      • 接管阶段:TOR 触发后,需 手动驾驶 并完成变道避障任务。
    • NDRT 显示方式
      • HUD(Heads-Up Display):半透明白色文本,显示在挡风玻璃左上方(不遮挡道路)。
      • ASD(Auditory Speech Display):Google 女声 TTS(参与者可调整播放速度)。
    • 接管信号(TOR)
      • 视觉提示(红色告警)+ 听觉提示(蜂鸣声)。
      • 5 秒 TTC(Time to Collision),定义为“紧急接管”场景。
    • 每个条件完成 4 次 TOR 任务(共 8 次)。

3. 数据分析方法

  • 视觉行为(眼动指标):
    • 注视时长、注视频率、AOI 注视概率(ROI 包括道路中心、HUD、仪表盘等)。
    • 注视分散度(Gaze Dispersion):量化视觉注意的分布范围。
    • 视线偏离道路时间(PEORT, Percentage Eyes Off Road Time)
  • 接管绩效
    • RTD(反应时间):从 TOR 到首次操作(踩踏板或转向)。
    • RTE(视觉反应时间):从 TOR 到首次注视道路。
  • 工作负荷:NASA-TLX 主观评分 + GSR/瞳孔直径变化。

主要研究结果

1. NDRT 显示方式对视觉行为的影响(H1-H3)

  • H1(道路中心注视)

    • HUD 条件下,驾驶员对 道路中心的注视频率更高(0.17 vs. 0.11 次/秒),但 单次注视时间更短(2.24s vs. 12.32s)。
    • ASD 条件下,注视更集中于道路中心(注视概率 49% vs. 38%),但 视觉分散度显著更高(垂直分散度:43.08° vs. 21.54°),表明驾驶员更频繁扫视其他区域。
  • H2(非任务相关区域注视)

    • ASD 条件下,驾驶员更可能注视 与驾驶无关的区域(“other” AOI 注视概率 28% vs. 16%),支持了 H2。
  • H3(接管阶段的视觉调整)

    • HUD 条件 下,接管后 长时间视线偏离道路(PEgor >2s)的概率更高(57.7% vs. 17.7%),表明驾驶员需更多时间恢复情境意识。
    • ASD 条件下,视觉反应时间 RTE 更短(109ms vs. 238ms),支持了 H3。

2. 绩效与主观评价

  • NDRT 效率:HUD 任务完成速度更快(但错误率无显著差异)。
  • 工作负荷:ASD 的 生理负荷更高(GSR/瞳孔变化更大),但主观评分显示 ASD 接受度更高(NASA-TLX 评分更低)。
  • 接管安全性:两种显示方式的 驾驶操纵绩效无显著差异(如转向稳定性),但 ASD 的 RTD 更优(2.64s vs. 2.50s)。

结论与意义

  1. 科学价值

    • 首次系统性比较了 HUD 与 ASD 在 L3 自动驾驶中的适用性,揭示了视觉注意机制的差异。
    • 验证了 多资源理论(Multiple Resource Theory)认知控制假说(Cognitive Control Hypothesis) 在本场景的适用性。
  2. 应用价值

    • 设计建议
      • ASD 更适合安全关键场景(如紧急接管),但需优化语音输出效率以提升生产力。
      • HUD 需结合动态信息布局(如增强现实提示),避免视觉“隧道效应”。
  3. 局限性与未来方向

    • 实验场景局限于高速公路,未来可扩展至城市道路。
    • 未考虑长期驾驶中的 疲劳或习惯化效应,需进一步研究。

研究亮点

  1. 方法创新:结合 眼动跟踪、生理测量和驾驶绩效 的多模态评估框架。
  2. 实践启示:为 L3 自动驾驶的 NDRT 界面设计 提供了实证依据。
  3. 理论贡献:深化了对 视觉注意与认知负荷 在自动化驾驶中动态交互的理解。

(全文完)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com