《心理科学进展》2024年第32卷第12期刊载了由齐玥、陈俊廷、秦邵天(中国人民大学心理学系)和杜峰(中国科学院行为科学重点实验室)合作完成的综述论文《通用人工智能时代的人与AI信任》。该论文聚焦人工智能技术快速发展背景下的人机信任关系变革,系统梳理了人际信任与人机信任的理论模型,创新性提出“人与AI动态互信模型”,为理解通用人工智能(AGI)时代的新型人机关系提供了重要理论框架。
人机信任定义的演进
论文首先批判性回顾了Lee和See(2004)提出的经典人机信任定义——”在不确定性和脆弱性前提下,个体对代理实现目标能力的态度”,指出其单向性局限。通过整合自动化信任的三项核心特征(信任双方主体、任务风险性、受托方动机能力),作者提出新定义:”无论是否意识到AI存在,人与AI系统持有的认为对方能帮助实现目标的态度和信心,以及在互动中接受不确定性并承担风险的意愿”。这一定义突破性地将”AI对人的信任”纳入范畴,并涵盖AI技术隐蔽性(如社交平台算法)和双向信任校准的特性。
信任模型的发展脉络
学科交叉创新
模型首次将社会心理学的人际信任理论(如Mayer模型)与工程心理学的人机交互研究(如Hancock元分析)深度整合,为跨学科研究建立桥梁。通过引入分布式认知理论,拓展了多智能体互动场景下的信任传递机制(如图2所示的”意见领袖”效应)。
技术应用指导
作者系统检索了1994-2024年间的中英文文献(包括CNKI、Web of Science等数据库),筛选标准涵盖”human-machine trust”、”trust in AI”等关键词。典型实证研究包括:
- Dikmen和Burns(2017)发现特斯拉事故经历显著降低用户信任(行为实验,N=127);
- Akash等(2018)通过EEG/GSR实现信任水平的生理解码(准确率82.3%);
- 许为团队(2024)在中国道路场景中验证了环境复杂度与信任度的负相关(r=-0.47, p<0.01)。
文中指出当前研究的三大争议点:
1. 道德决策偏差:Bigman和Gray(2018)发现人类抵触AI做道德决策(如自动驾驶的”电车难题”),这与医疗AI的临床接受度形成矛盾;
2. 透明度悖论:Eslami等(2015)揭示Facebook用户对隐蔽算法的持续使用,挑战”解释性增强信任”的常规认知;
3. 文化差异性:闫宏秀(2019)指出西方个人主义文化下的信任模型可能不适用于东亚集体主义场景。
该模型的局限性在于尚未实现数学形式化描述,且多智能体实验验证不足。作者建议未来研究可采用强化学习框架模拟信任动态(如Q-learning算法),并在工业机器人协作等场景开展实证检验。
这篇综述通过构建”动态互信”理论框架,不仅为AGI时代的人机协作提供了心理学基础,更对人工智能伦理、人机交互设计等领域产生深远影响。其核心价值在于将信任从静态属性重构为持续演化的关系过程,标志着人机关系研究从工具理性向交往理性的范式转变。