本研究由 Nakyung Kyung(School of Computing, National University of Singapore, Singapore)和 Hyeokkoo Eric Kwon(Nanyang Business School, Nanyang Technological University, Singapore)完成,发表于 Production and Operations Management 期刊的特刊文章中,DOI 为 10.1111/poms.13785。文章的投稿时间为 2021年6月2日,最终接受时间为 2022年5月11日。
当前医疗领域正在面临严重的人力资源短缺问题。根据世界卫生组织的估算,2013年全球医疗工作者短缺约为1740万,预计到2030年只能减少17%。预防性医疗服务因其日益增长的需求,尤为凸显这一短缺问题。尽管美国75%的医疗预算用于预防性医疗,但仅约22.4%的美国人获得了推荐的服务。
人工智能(Artificial Intelligence, AI)的出现被认为可以缓解这一矛盾。AI因其成本效益高、个性化特点显著,被认为能够在饮食建议、运动处方等预防性医疗服务方面替代或提升传统医疗专家的职能。然而,这种潜力面临严重挑战,尤其是用户对AI提供健康建议的信任问题。在一项以2048名美国成年人为样本的调查中,仅有20%的受访者表示信任AI生成的健康建议。鉴于信任是接受AI应用的关键因素,如何提升用户对AI的信任成为了提高预防性医疗服务有效性的重要课题。
学术领域的现有技术接受理论虽已探讨信任的重要性,但其多侧重于理性层面的认知信任(Cognitive Trust),对情感信任(Affective Trust)的研究有限。而情感信任在潜在感知风险较高且信息不对称的预防性医疗服务领域可能具有更大的影响。因此,本研究通过理论推导与实证验证相结合的方式,探讨认知和情感信任在用户接受AI预防性健康干预中的相对重要性,并提出策略以提升AI的信任水平。
为了回答研究问题,本研究设计并执行了随机对照实地实验与问卷调查,其中涉及以下主要步骤:
前期理论构建与问卷调查:
随机对照实地实验:
附加实验设计:
问卷调查:
实地实验主要结果:
附加实验结果:
因果验证:
本研究提出了一个全新的信任框架,发现情感信任(包括仁慈性和诚信性)在用户对AI干预的接受中占据主导地位。尽管AI在认知信任上已接近甚至高于人类,其情感信任的显著不足导致接受率和健康行为改变效果均低于人类干预。
科学意义: - 本研究深化了技术接受理论,拓展性地提出了情感信任对新一代AI技术接受的重要性。 - 丰富了行为运营管理和健康领域的研究,通过实证展示了AI应用对用户行为改变及企业运营绩效的影响。
实践意义: - 提供了提升AI可接受性具体且实践可行的策略,包括强调人类专家参与协作和提高AI推荐算法的透明度。 - 指导预防性医疗机构优化AI工具的设计,以促进用户健康行为和提高运营效率。
本研究填补了AI在医疗运营管理中信任与接受的理论空白,为健康服务的AI化设计提供了重要参考,同时引发了对情感信任在其他领域应用的进一步思考。