分享自:

对人工智能在预防护理中的认知与情感信任:接受度与行为变化研究

期刊:Production and Operations ManagementDOI:10.1111/poms.13785

学术报告:AI在预防性健康服务中的应用与信任研究

作者及发表信息

本研究由 Nakyung Kyung(School of Computing, National University of Singapore, Singapore)和 Hyeokkoo Eric Kwon(Nanyang Business School, Nanyang Technological University, Singapore)完成,发表于 Production and Operations Management 期刊的特刊文章中,DOI 为 10.1111/poms.13785。文章的投稿时间为 2021年6月2日,最终接受时间为 2022年5月11日。


研究背景

当前医疗领域正在面临严重的人力资源短缺问题。根据世界卫生组织的估算,2013年全球医疗工作者短缺约为1740万,预计到2030年只能减少17%。预防性医疗服务因其日益增长的需求,尤为凸显这一短缺问题。尽管美国75%的医疗预算用于预防性医疗,但仅约22.4%的美国人获得了推荐的服务。

人工智能(Artificial Intelligence, AI)的出现被认为可以缓解这一矛盾。AI因其成本效益高、个性化特点显著,被认为能够在饮食建议、运动处方等预防性医疗服务方面替代或提升传统医疗专家的职能。然而,这种潜力面临严重挑战,尤其是用户对AI提供健康建议的信任问题。在一项以2048名美国成年人为样本的调查中,仅有20%的受访者表示信任AI生成的健康建议。鉴于信任是接受AI应用的关键因素,如何提升用户对AI的信任成为了提高预防性医疗服务有效性的重要课题。
学术领域的现有技术接受理论虽已探讨信任的重要性,但其多侧重于理性层面的认知信任(Cognitive Trust),对情感信任(Affective Trust)的研究有限。而情感信任在潜在感知风险较高且信息不对称的预防性医疗服务领域可能具有更大的影响。因此,本研究通过理论推导与实证验证相结合的方式,探讨认知和情感信任在用户接受AI预防性健康干预中的相对重要性,并提出策略以提升AI的信任水平。


研究流程

为了回答研究问题,本研究设计并执行了随机对照实地实验与问卷调查,其中涉及以下主要步骤:

  1. 前期理论构建与问卷调查:

    • 调查样本:在韩国5个社区健康中心招募了95名有效受访者。
    • 调查内容:设计了AI-和人类干预(Human-Interventions)情景。受访者分别被随机分配观看AI生成或人类专家生成的步数目标推荐场景,并被要求回答一系列有关接受程度和信任感的问题。
    • 测量指标:衡量认知信任(AI或人类的能力)及情感信任(包括仁慈性和诚信性),同时记录受访者对干预的接受率。
  2. 随机对照实地实验:

    • 实验规模:招募15000名南韩某移动健康应用的长期活跃用户,分别分配到AI干预、人类干预或中性干预三组,各组3000人。
    • 数据收集:
      • 干预方式:向用户发送个性化步数目标推荐通知,其中AI或健康专家生成的干预会明确标注来源,中性干预则不透露生成者。
      • 数据记录:如果用户接受干预(点击“是”按钮),则跟踪其接下来7天的步数情况。
    • 个性化目标生成算法:该AI算法采用强化学习技术,基于用户过去一个月的历史步数数据生成个性化推荐目标。
      每组使用相同的AI算法,以控制干预效果的客观差异。
  3. 附加实验设计:

    • 设计了两种改进干预:
      a. AI-人与协作干预(AI-Human Interventions):展示AI结合人类专家建议生成干预。
      b. AI透明度干预(AI-Transparency Interventions):提供详细解释如何生成推荐目标。
    • 收集数据:相同格式的问卷调查与随机实验分别招募了额外阶段的参与者,调查干预对用户信任感及健康行为的影响。

研究结果

  1. 问卷调查:

    • AI和人类干预的认知信任无显著差异,但AI干预的情感信任(仁慈性和诚信性)显著低于人类干预。
    • 人类干预的接受率(52.2%)高于AI干预(34.7%)。
  2. 实地实验主要结果:

    • 与中性干预相比,AI干预显著提高了接受率与健康行为改变。
    • 人类干预的接受率与实际行为改变显著高于AI干预。
    • AI干预的实际行为改变量较中性干预提高12.5%,但低于人类干预的32.8%。
  3. 附加实验结果:

    • AI-人与协作干预与AI透明度干预均显著提升了情感信任感,并进一步提高了干预的接受率和健康行为改变。
    • 与AI干预相比: a. AI-人与协作干预在接受率和行为改变量上全面优于AI干预。 b. AI透明度干预尽管改善程度低于前者,但效果仍明显优于AI干预。
  4. 因果验证:

    • 通过增加AI干预的情感信任特质(强调AI关爱与透明性),有效提高了AI干预接受率。

研究结论及意义

本研究提出了一个全新的信任框架,发现情感信任(包括仁慈性和诚信性)在用户对AI干预的接受中占据主导地位。尽管AI在认知信任上已接近甚至高于人类,其情感信任的显著不足导致接受率和健康行为改变效果均低于人类干预。

科学意义: - 本研究深化了技术接受理论,拓展性地提出了情感信任对新一代AI技术接受的重要性。 - 丰富了行为运营管理和健康领域的研究,通过实证展示了AI应用对用户行为改变及企业运营绩效的影响。

实践意义: - 提供了提升AI可接受性具体且实践可行的策略,包括强调人类专家参与协作和提高AI推荐算法的透明度。 - 指导预防性医疗机构优化AI工具的设计,以促进用户健康行为和提高运营效率。


研究亮点

  1. 创新的信任视角: 突出情感信任在一定情境下的重要性,并通过实地实验验证其作用。
  2. 适应性设计: 提供具体方法(如引入人类专家协作、透明度提高)以有效提升AI干预效果。
  3. 广泛的应用潜力: 结果不仅限于预防性医疗,还适用于其他难以量化服务效果的信任驱动型行业,如法律、教育、保险等领域。

本研究填补了AI在医疗运营管理中信任与接受的理论空白,为健康服务的AI化设计提供了重要参考,同时引发了对情感信任在其他领域应用的进一步思考。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com