分享自:

人工智能信任及其在AI技术接受中的作用

期刊:international journal of human–computer interactionDOI:10.1080/10447318.2022.2050543

人工智能信任度及其在AI技术接受中的作用:基于扩展技术接受模型(TAM)的实证研究

作者及发表信息
本研究由美国密歇根州立大学的Hyesun Choung(传播艺术与科学学院)、Prabu David(媒体与信息学系)和Arun Ross(计算机科学与工程系)合作完成,发表于2023年的*International Journal of Human–Computer Interaction*(卷39,期9,页码1727–1739),DOI: 10.108010447318.2022.2050543。


学术背景
随着人工智能(AI)技术在智能家居、健康监测、自动驾驶等领域的普及,用户对AI的信任成为技术接受的关键因素。然而,现有研究对AI信任的维度划分及其与技术接受模型(Technology Acceptance Model, TAM)的整合缺乏系统性探讨。本研究基于TAM框架,提出“AI信任”的多维构念,旨在揭示信任对AI技术使用意愿的影响路径,并区分“拟人化信任”(human-like trust)与“功能信任”(functionality trust)的差异化作用。研究目标包括:
1. 验证信任在TAM中的中介作用;
2. 开发AI信任的维度测量工具;
3. 比较两类信任对技术接受的影响差异。

理论背景融合了组织信任(Mayer et al., 1995)、技术信任(McKnight et al., 2011)和自动化信任(Lee & See, 2004)的经典维度,提出AI信任需同时涵盖伦理属性(如公平性、透明度)与技术能力(如可靠性、安全性)。


研究流程与方法
研究分为两个阶段,采用混合方法设计:

研究1:AI语音助手的信任与接受(学生样本)
- 研究对象:312名美国大学生(56%女性,平均年龄21岁),96%有语音助手使用经验。
- 测量工具
- TAM核心变量:感知易用性(perceived ease of use)、感知有用性(perceived usefulness)、使用态度(attitude)和行为意向(behavioral intention),采用5级李克特量表(α=0.81–0.98)。
- 信任:4项自定义题项(如“我相信AI语音助手会保护我的隐私”,α=0.81)。
- 数据分析:路径分析(lavaan包)验证信任通过感知有用性和态度间接影响使用意向的假设模型。

研究2:智能技术的多维信任验证(全美代表性样本)
- 研究对象:640名美国成年人(50.1%女性,平均年龄46.4岁),覆盖不同种族与年龄段。
- 信任维度开发
- 通过探索性因子分析(EFA)将11项信任题项分为两类:
- 拟人化信任(6项,α=0.92):涵盖善意(benevolence,如“智能技术关心用户福祉”)与诚信(integrity,如“智能技术遵守承诺”)。
- 功能信任(5项,α=0.91):聚焦能力(competence,如“智能技术可靠且功能完备”)。
- 模型验证:分别将两类信任纳入TAM路径模型,比较其效应差异。


主要结果
1. 研究1
- 信任通过感知有用性(β=0.39, p<0.001)和态度(β=0.23, p<0.001)间接影响使用意向,总效应β=0.32(p<0.001)。
- 感知易用性对使用意向的总效应最大(β=0.63),表明用户更关注AI技术的操作简便性。

  1. 研究2
    • 维度验证:EFA支持信任的双维结构(累计方差解释率>70%),两类信任均显著预测使用意向,但功能信任的总效应更强(β=0.42 vs. 拟人化信任β=0.36)。
    • 路径一致性:两类信任在TAM中的影响模式相似,均通过增强感知有用性(β=0.30–0.38)和态度(β=0.30–0.31)间接提升使用意愿。

结论与价值
1. 理论贡献
- 首次将AI信任明确划分为拟人化与功能维度,为后续研究提供测量工具(附录含完整量表)。
- 扩展TAM在AI领域的适用性,证明信任是连接技术属性(易用性)与心理接受(态度)的关键中介。

  1. 实践意义
    • 设计建议:AI产品需平衡“人性化交互”(如透明算法、伦理设计)与“功能性优化”(如稳定性、准确性)。
    • 政策启示:监管机构可依据信任维度制定AI伦理准则,例如通过“可解释性”(explainability)提升拟人化信任。

研究亮点
1. 方法创新:结合学生样本的初步验证与全美样本的维度细化,增强结论普适性。
2. 跨学科整合:融合心理学(信任理论)、人机交互(TAM)与AI伦理(FATE框架)的多领域视角。
3. 动态视角:指出AI信任可能随技术演进(如生成式AI的涌现)需进一步分层研究(如初始信任vs.持续信任)。

局限与展望
- 样本局限于美国,未来需跨文化验证;
- 未区分高风险(如医疗AI)与低风险场景(如语音助手)的信任差异,建议后续研究结合具体应用领域细化模型。

(注:原文附录包含完整量表题项及EFA载荷矩阵,此处从略。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com