关于一项探讨医疗健康消费者对ChatGPT生成健康信息的信任与采纳意愿影响因素实证研究的学术报告
本次向各位研究者介绍的是一项发表于《Digital Health》期刊(2025年发表)的原创性实证研究。该研究由华中科技大学同济医学院医药卫生管理学院的郭双燕、宋杨、陈冠云、韩鸿欣、吴红及马敬东(通讯作者)共同完成。
一、学术背景与动机 本研究根植于数字健康(Digital Health)与健康信息学领域,尤其关注新兴的生成式人工智能(Generative Artificial Intelligence, GenAI)在医疗健康领域的应用与接受度。以ChatGPT为代表的GenAI产品,因其强大的语言生成与问答能力,在辅助临床决策、医学教育、患者沟通及健康信息提供等方面展现出巨大潜力。然而,现有研究多集中于医疗提供者(如医生)视角,或聚焦于技术性能评估,而相对缺乏从医疗健康消费者(即患者及普通用户)角度的系统性考察。特别是在人机交互过程中,技术的不确定性和信息的不确定性如何影响用户对AI的信任,并最终影响其对AI生成健康信息的采纳意愿,尚未得到充分的实证量化分析。
为填补这一研究空白,本研究旨在从不确定性降低理论(Uncertainty Reduction Theory, URT)的视角出发,探究医疗健康消费者对ChatGPT信任感的前因,以及这种信任如何影响他们对ChatGPT生成健康信息的采纳意愿。研究者认为,当用户面对作为“黑箱”且可能生成不准确信息的ChatGPT时,会经历显著的互动不确定性。URT为理解和降低这种不确定性提供了一个有力的理论框架,它认为个体会通过主动、被动等策略来减少不确定性,从而建立信任。因此,本研究的目标是:(1)探索医疗健康消费者对ChatGPT的信任如何影响其健康信息采纳意愿;(2)从不确定性降低的视角,分析影响对ChatGPT信任的关键因素。
二、研究设计与详细流程 本研究采用横断面问卷调查法,其工作流程严谨,主要包括研究模型构建、测量工具开发与翻译、数据收集、数据分析四个主要环节,具体如下:
理论模型构建与假设发展:基于不确定性降低理论,研究者构建了一个综合性的研究模型。模型将“对ChatGPT的信任”设定为影响“健康信息采纳意愿”的核心中介变量。前因变量被整合到URT框架下:主动策略方面,考察了社会影响(Social Influence)和情境正常性(Situational Normality);被动策略方面,考察了信息质量(Information Quality)和信息披露(Information Disclosure)。此外,模型还纳入了感知互动环境的三个关键ChatGPT特征:拟人化(Anthropomorphism)、自主性(Autonomy)和个性化(Personalization)。基于此,研究提出了八个主要假设(H1-H8),分别预测上述七个前因变量与信任的正向关系(H2-H8),以及信任对采纳意愿的正向影响(H1)。
测量工具准备与预测试:由于缺乏专门针对患者与ChatGPT交互的成熟量表,研究者从现有关于AI的文献中,为每个关键构念(Construct)适配了测量题项。所有题项均采用7点李克特量表(1=非常不同意,7=非常同意)。英文问卷首先被翻译成中文,并由两名健康信息管理方向的研究生进行内容效度审核。为确保问卷的清晰度和可靠性,研究对20名健康信息管理与社会医学专业的研究生进行了预测试,并根据反馈进行了修订。最终问卷包含29个测量题项。根据统计指南(项目数与样本量比例至少1:10),研究确定了至少需要290名有效参与者。
研究对象招募与数据收集:
数据分析方法:
三、主要研究结果 研究结果详细验证了理论模型,揭示了各变量间复杂的关系。
样本特征:有效样本(N=308)中,女性(63.3%)多于男性(36.7%);平均年龄约31.93岁;受教育程度较高(本科/大专占70.1%,研究生占28.6%);大多数自评健康状况良好;对ChatGPT的熟悉度普遍较高(“熟悉”和“非常熟悉”合计占85.4%)。
测量模型质量:所有构念的克朗巴哈α系数和组合信度CR值均大于0.7,AVE值均大于0.5,表明测量工具具有良好信度和收敛效度。区分效度检验也符合标准。共同方法偏差检验(Harman单因子=39.326%)和多重共线性检验(所有VIF值<3.3)均未发现严重问题。
结构模型与假设检验结果:
四、研究结论与价值 本研究得出核心结论:医疗健康消费者对ChatGPT的信任是其采纳由ChatGPT生成健康信息的关键驱动因素。而培养这种信任,最关键的是确保信息质量。此外,营造一个正常、稳定的交互情境(情境正常性),以及提升ChatGPT的自主响应能力和个性化服务水平,也都是有效的信任构建策略。
本研究的价值体现在以下几个方面: * 理论贡献:首先,将研究视角从医疗提供者拓展至医疗消费者,丰富了GenAI在健康信息场景下的用户行为研究。其次,明确将“健康信息采纳意愿”而非泛化的“使用意愿”作为结果变量,并以信任为中介,深化了对人机交互中决策机制的理解。最后,创新性地应用不确定性降低理论(URT)来框架化分析信任前因,强调了人机交互中不确定性管理的重要性,并为URT在新技术(尤其是GenAI)和高风险领域(医疗健康)的应用提供了实证支持。 * 实践意义:为ChatGPT等GenAI工具的健康应用开发者、医疗服务提供者及政策制定者提供了具体指引。开发者应优先保障输出信息的准确性与可靠性,同时优化交互流程的稳定性和响应速度,并提供适度的个性化服务。需警惕社会影响的负面影响,可通过提供高质量内容、正面引导舆论、提升用户健康信息素养来对冲。政策制定者可参考本研究发现的信任关键因素,制定相关标准与监管框架,以促进负责任、可信赖的AI在医疗健康领域的整合与应用。 * 方法论贡献:采用PLS-SEM方法对复杂的多变量关系进行了量化建模,为相关领域的研究提供了可复现的方法论范例和实证数据支持。
五、研究亮点与创新 1. 视角创新:率先从医疗健康消费者视角,系统量化研究其对ChatGPT的信任与健康信息采纳问题。 2. 理论创新:成功将源于人际传播的“不确定性降低理论”应用于分析人(医疗消费者)与生成式AI(ChatGPT)在医疗健康这一高风险领域的互动,构建了一个新颖且逻辑严密的研究模型。 3. 发现创新:揭示了在医疗健康语境下,信息质量是压倒性的首要信任驱动因素,而社会影响可能产生负面作用,这两个发现挑战或深化了部分现有认知,具有重要启示意义。 4. 方法严谨:采用了两阶段抽样确保样本针对性,实施了严格的数据质量控制,并运用了适合探索性研究和中小样本的PLS-SEM分析方法,保证了研究结果的稳健性。
六、其他有价值的内容与局限 研究者也坦诚地讨论了本研究的局限性,为未来研究指明了方向:首先,研究聚焦于ChatGPT,结论向其他大模型或GenAI的推广需谨慎;采用横断面数据,无法揭示因果动态。其次,URT框架可能未涵盖所有重要因素(如文化、自我效能感),模型对采纳意愿的解释力(17.8%)尚有提升空间。再次,依赖自我报告问卷数据,可能存在回忆偏差等,且测量工具非专为ChatGPT健康场景设计。最后,样本存在偏差(主要为高教育水平的中国用户),限制了结论的普适性;未控制数字健康素养、先前经验等潜在混淆变量。未来研究可考虑纵向设计、跨文化比较、结合质性方法,并纳入更多样的用户样本和控制变量。