分享自:

人机交流中代理与消息类型对社会支持感知的影响

期刊:communication research reportsDOI:10.1080/08824096.2021.1966405

学术研究报告:人机交互中支持类型与交互主体对社交支持感知的影响

作者及发表信息
本研究由Western Michigan University的Bryan Abendschein、Chad Edwards和Autumn Edwards合作完成,发表于2021年的*Communication Research Reports*期刊(第38卷第5期,304-314页)。研究聚焦人机交互(Human-Machine Communication, HMC)领域,探讨人类对不同交互主体(人类、AI聊天机器人、社交机器人)提供的社交支持(情感性支持与工具性支持)的感知差异。


学术背景与研究目标
科学领域与背景知识
社交支持(Social Support)是人际关系中影响身心健康的核心因素,传统研究集中于人类间互动,但近年来,人工智能(AI)和社交机器人(Social Robot)逐渐成为支持提供者。基于“计算机是社会行动者”(Computers Are Social Actors, CASA)理论,人们可能无意识地将社会规范投射到机器交互中。然而,机器提供的支持是否与人类等效尚不明确。

研究动机与目标
随着AI助手(如Amazon Alexa)和社交机器人(如SoftBank Pepper)的普及,研究者提出核心问题:
1. 人类对不同交互主体(人类/AI/机器人)的能力(Competence)可信度(Credibility)社交临场感(Social Presence)的感知是否存在差异?
2. 支持类型(情感性/工具性)是否影响上述感知?
研究通过实验设计验证CASA理论在社交支持场景下的适用性,并为HMC领域提供实证依据。


研究设计与方法
实验流程
研究采用3(交互主体:人类/AI/社交机器人)×2(支持类型:情感性/工具性)的组间设计,共161名大学生参与者随机分配至6种实验条件。

  1. 刺激材料准备

    • 交互主体呈现:每组参与者观看对应主体的图片(人类:女性大学生;AI:Amazon Echo Dot;机器人:SoftBank Pepper)并阅读相同名称“Sam”的描述,以控制性别变量。
    • 支持类型脚本:基于真实在线支持场景设计两段对话(表1):
      • 情感性支持:帮助缓解学业压力(如“我理解你的压力”)。
      • 工具性支持:提供具体问题解决方案(如“可持续农业的定义是…”)。
  2. 数据收集
    参与者阅读脚本后完成以下量表:

    • 可信度(McCroskey & Teven, 1999修订版):含能力(如“智能/不智能”)、品格(如“可信/不可信”)、关怀(如“关心我/不关心我”)三个维度(15题,7级语义差异量表)。
    • 社交支持感知(Collins & Feeney, 2004修订版):评估支持有效性(如“Sam是否愿意帮助?”)(6题,α=0.87)。
    • 社交临场感(Walther & Bazarova, 2008修订版):测量互动中的“共在感”(如“亲近/疏远”)(6题,α=0.95)。
    • 控制变量:采用多维感知社会支持量表(Zimet等, 1988)控制个体差异。
  3. 数据分析
    采用多变量协方差分析(MANCOVA),以交互主体和支持类型为自变量,控制社会支持基线水平,检验对可信度、支持感知和社交临场感的影响。


主要结果
1. 交互主体差异
- 能力感知:社交机器人评分显著高于人类(p=0.021),AI与人类无差异。例如,机器人提供工具性支持时能力评分最高(M=6.10 vs. 人类M=5.48)。
- 其他维度:可信度(品格、关怀)和社交临场感无显著差异,表明参与者更关注支持效果而非提供者身份。

  1. 支持类型差异

    • 工具性支持在能力感知(p=0.001)和支持有效性(p=0.009)上评分更高。例如,工具性支持的能力均值(M=5.74)显著高于情感性支持(M=5.18)。
    • 情感性支持未引发更低评价,但参与者认为工具性支持更“高效”。
  2. 交互效应
    主体与支持类型无显著交互作用(p>0.05),说明无论人类或机器,工具性支持均被认为更可靠。


结论与价值
1. 理论意义
- 验证CASA理论在社交支持场景的适用性:人类对机器支持的感知与人类支持无本质差异,支持“交互效果优先于提供者属性”的假设。
- 提出“支持类型”是关键调节变量,工具性支持更符合机器角色预期。

  1. 应用价值

    • AI设计启示:工具性功能(如信息查询)可优先优化,情感性功能需进一步研究以提升自然度。
    • 心理健康干预:机器支持可作为人类支持的补充,尤其在信息提供场景。
  2. 局限性

    • 仅通过第三方观察(脚本阅读)而非实时互动收集数据,未来需结合真实交互实验。
    • 未深入探讨性别化AI语音(如女性声音)对感知的影响。

研究亮点
1. 创新发现:首次对比人类、AI和机器人在社交支持中的多维感知差异,揭示工具性支持的普适优势。
2. 方法贡献:结合CASA理论与经典社交支持量表,为人机交互研究提供新范式。
3. 社会意义:为AI伦理设计(如性别偏见)和机器人应用场景(如教育、医疗)提供实证依据。

后续方向
作者建议探索实时交互中机器支持的动态效果,以及文化差异对支持感知的影响。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com