分享自:

通用人工智能时代的人与AI信任

期刊:心理科学进展DOI:10.3724/sp.j.1042.2024.02124

《心理科学进展》2024年第32卷第12期刊载了由齐玥、陈俊廷、秦邵天(中国人民大学心理学系)和杜峰(中国科学院行为科学重点实验室)合作完成的综述论文《通用人工智能时代的人与AI信任》。该论文聚焦人工智能技术快速发展背景下的人机信任关系变革,系统梳理了人际信任与人机信任的理论模型,创新性提出“人与AI动态互信模型”,为理解通用人工智能(AGI)时代的新型人机关系提供了重要理论框架。

核心观点与理论框架

  1. 人机信任定义的演进
    论文首先批判性回顾了Lee和See(2004)提出的经典人机信任定义——”在不确定性和脆弱性前提下,个体对代理实现目标能力的态度”,指出其单向性局限。通过整合自动化信任的三项核心特征(信任双方主体、任务风险性、受托方动机能力),作者提出新定义:”无论是否意识到AI存在,人与AI系统持有的认为对方能帮助实现目标的态度和信心,以及在互动中接受不确定性并承担风险的意愿”。这一定义突破性地将”AI对人的信任”纳入范畴,并涵盖AI技术隐蔽性(如社交平台算法)和双向信任校准的特性。

  2. 信任模型的发展脉络

  • 人际信任模型:Mayer等人(1995)的”能力-仁慈-正直”三维模型仅关注受托方特征,McKnight和Chervany(1996)补充委托方态度和情境因素,形成信任概念关系模型。
  • 人机信任模型:Sanders等(2011)四因素模型(机器人性能、依赖性、个体差异、协作)经元分析提炼为三因素模型(操作者-机器系统-环境因素),我国学者进一步发展为”个体-技术-环境”框架(高在峰等,2021)。
  • 整合模型:Lewis和Marsh(2022)提出基于信息加工的可信度判断模型,强调能力、可预测性、诚实、仁慈四维度及代理信任作用,但忽视用户状态影响。
  1. 人与AI动态互信模型
    该模型包含三大创新维度:
  • 关系维度:突破传统单向信任,将人与AI视为对等主体。当AI具备自主决策能力(如自动驾驶紧急接管)时,系统设计者对用户的信任(如状态监测)与AI自主信任(如风险评估)形成双向闭环。
  • 时程维度:建立三阶段动态闭环:
    (1)初始阶段:人类受信任倾向(年龄、人格)、经验记忆及系统文化影响;AI受设计预设和交互历史驱动。
    (2)感知阶段:人类综合评估自身胜任力、AI能力/风险感知及任务难度;AI通过传感器监测用户状态(疲劳、分心)、系统健康度及环境风险。
    (3)行为阶段:通过结果反馈(如AI接管决策效果)实时校准信任水平,形成”经验-行为-反馈”迭代机制。
  • 测量维度:指出当前自我报告法、行为指标(遵从/依赖比率)、生理测量(EEG/GSR)的局限,强调开发多模态实时量化工具的必要性。

理论价值与实践意义

  1. 学科交叉创新
    模型首次将社会心理学的人际信任理论(如Mayer模型)与工程心理学的人机交互研究(如Hancock元分析)深度整合,为跨学科研究建立桥梁。通过引入分布式认知理论,拓展了多智能体互动场景下的信任传递机制(如图2所示的”意见领袖”效应)。

  2. 技术应用指导

  • 在自动驾驶领域,提出”适当信任”校准机制:系统需平衡人类过度信任(完全放弃监控)与信任不足(拒绝辅助功能)的风险,通过实时状态提示(如视觉/听觉警报)优化人机控制权分配。
  • 在医疗AI场景,强调”代理信任”的作用:医生对AI诊断建议的采纳程度受医院信誉、算法透明度等多层因素影响。
  1. 未来研究方向
    论文提出三个关键领域:
    (1)AI信任倾向的编程伦理:如何在算法中嵌入不同文化背景的信任基准值;
    (2)多模态信任量化模型:融合眼动追踪(注意力分配)、皮肤电反应(情绪唤醒)等指标构建动态预测系统;
    (3)群体智能中的信任网络:研究人-AI团队中信任链式反应的数学模型,如无人机编队作战时的信任传播路径。

文献支撑与方法论

作者系统检索了1994-2024年间的中英文文献(包括CNKI、Web of Science等数据库),筛选标准涵盖”human-machine trust”、”trust in AI”等关键词。典型实证研究包括:
- Dikmen和Burns(2017)发现特斯拉事故经历显著降低用户信任(行为实验,N=127);
- Akash等(2018)通过EEG/GSR实现信任水平的生理解码(准确率82.3%);
- 许为团队(2024)在中国道路场景中验证了环境复杂度与信任度的负相关(r=-0.47, p<0.01)。

学术争议与局限

文中指出当前研究的三大争议点:
1. 道德决策偏差:Bigman和Gray(2018)发现人类抵触AI做道德决策(如自动驾驶的”电车难题”),这与医疗AI的临床接受度形成矛盾;
2. 透明度悖论:Eslami等(2015)揭示Facebook用户对隐蔽算法的持续使用,挑战”解释性增强信任”的常规认知;
3. 文化差异性:闫宏秀(2019)指出西方个人主义文化下的信任模型可能不适用于东亚集体主义场景。

该模型的局限性在于尚未实现数学形式化描述,且多智能体实验验证不足。作者建议未来研究可采用强化学习框架模拟信任动态(如Q-learning算法),并在工业机器人协作等场景开展实证检验。

这篇综述通过构建”动态互信”理论框架,不仅为AGI时代的人机协作提供了心理学基础,更对人工智能伦理、人机交互设计等领域产生深远影响。其核心价值在于将信任从静态属性重构为持续演化的关系过程,标志着人机关系研究从工具理性向交往理性的范式转变。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com