分享自:

好机器人,坏机器人:道德行为对感知心智、道德和信任的影响

期刊:international journal of social roboticsDOI:10.1007/s12369-020-00692-3

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


作者与机构
本研究由Texas Tech University的Jaime Banks独立完成,发表于《International Journal of Social Robotics》2021年第13卷(2021-2038页),DOI: 10.1007/s12369-020-00692-3,2020年8月12日接收,同年9月10日在线发表。


学术背景
研究领域为人机交互(Human-Robot Interaction, HRI)道德心理学(Moral Psychology)的结合。传统研究将机器人行为简单归类为“好”或“坏”,而当代道德心理学提出道德基础理论(Moral Foundations Theory, MFT),认为道德判断基于多维基础(关怀/伤害、公平/欺骗、忠诚/背叛、权威/颠覆、纯洁/堕落、自由/压迫)。本研究旨在探索:(1) 人类对不同道德基础行为的评价是否因行为主体(人类vs机器人)而异;(2) 这些行为如何影响对主体的社会认知(心智感知、道德能力、信任)。


研究流程
研究分为两个实验,采用混合方法设计:

实验1(在线调查)
- 样本:402名美国代表性样本(年龄18-90岁,性别比例均衡,政治意识形态分布符合美国人口特征)。
- 设计:2(主体:人类/机器人)×2(行为效价:遵守/违反道德基础)的组间设计,道德基础场景为组内变量。
- 刺激材料:录制7段视频(6个道德基础场景+1个非道德场景),由机器人(RoboThespian)或人类演员(名为“Ray”)按脚本回应。例如,关怀/伤害(Care/Harm)场景中,主体对毁容女孩的自拍发表善意或恶意评论。
- 测量
- 行为评价:对行为“好坏”和“责任归属”的7级评分。
- 主体评价:心智感知(依赖程度量表)、道德能力(道德代理量表)、信任(多维信任量表)。
- 数据分析:多变量协方差分析(MANCOVA)和典型相关分析(Canonical Correlation Analysis),控制道德基础重视程度和主体态度。

实验2(实验室互动)
- 样本:92名本地居民,非随机分配至人类(n=34)或机器人(n=58)条件。
- 改进:主体通过“魔法师奥兹”(Wizard-of-Oz)协议实时交互,增强在场感。
- 流程:参与者逐一向主体朗读道德困境,记录其反应并填写评价表。
- 数据分析:与实验1相同,但关注物理在场的影响。

创新方法
- 道德基础场景设计:基于已验证的小型情境(vignettes),经专家审核避免基础混淆。
- 机器人行为控制:通过预编程脚本和即时干预确保交互真实性。


主要结果
1. 行为评价的普遍性(RQ1)
- 效价主导:无论主体是人类还是机器人,违反道德基础的行为均被评价为更“坏”(如关怀场景中,遵守行为M=6.00 vs违反行为M=2.34,p<0.001)。
- 责任归因差异:仅在实验室互动中,违反行为引发更高责任评分(如纯洁场景中,违反行为责任M=4.46 vs遵守行为M=2.04,p<0.001)。
- 公平性例外:在线实验中,机器人违反公平的行为被评为更极端(M=2.14 vs人类M=4.38),表明对机器人的系统性偏见。

  1. 社会认知的影响(RQ2)
    • 在线实验:行为效价全面影响主体评价。例如,典型相关分析显示,负面行为降低道德能力(r=-0.942)和信任(r=-0.956)。
    • 实验室实验
      • 人类:责任归因与道德评价强相关(如高责任+低 goodness 导致信任下降)。
      • 机器人:仅行为效价影响评价,责任无显著作用。例如,高 goodness 但低责任时,机器人信任评分反而上升。

结论与价值
1. 理论意义
- 道德判断具有主体无关性(Agent-Agnostic),但机器人需承担更高道德负担——其“好”行为需无条件持续才能获得信任。
- 物理在场增强责任归因,提示社会存在感(Social Presence)调节道德认知。

  1. 应用价值
    • 为机器人设计提供指导:需在多维道德基础上表现一致,尤其是公平和关怀。
    • 揭示公众对机器人的隐性期望:即使无明确责任,仍需避免任何“坏”行为。

研究亮点
1. 多维道德框架:首次将MFT系统应用于HRI,超越传统的“好/坏”二分法。
2. 方法创新:结合在线与实验室实验,验证行为评价的跨情境一致性。
3. 责任悖论:发现机器人“无过错仍需担责”的社会认知偏差,为AI伦理提供新视角。


其他价值
- 数据公开:所有实验材料、数据及分析脚本已在Open Science Framework(OSF)公开,促进可重复性。
- 跨学科启示:融合道德心理学与机器人学,为后续研究如自主道德代理(Autonomous Moral Agents)奠定基础。


(报告总字数:约1800字)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com