分享自:

提升医疗消费者对ChatGPT生成健康信息的信任与采纳意愿:一项实证研究

期刊:Digital HealthDOI:10.1177/20552076251374121

关于一项探讨医疗健康消费者对ChatGPT生成健康信息的信任与采纳意愿影响因素实证研究的学术报告

本次向各位研究者介绍的是一项发表于《Digital Health》期刊(2025年发表)的原创性实证研究。该研究由华中科技大学同济医学院医药卫生管理学院的郭双燕、宋杨、陈冠云、韩鸿欣、吴红及马敬东(通讯作者)共同完成。

一、学术背景与动机 本研究根植于数字健康(Digital Health)与健康信息学领域,尤其关注新兴的生成式人工智能(Generative Artificial Intelligence, GenAI)在医疗健康领域的应用与接受度。以ChatGPT为代表的GenAI产品,因其强大的语言生成与问答能力,在辅助临床决策、医学教育、患者沟通及健康信息提供等方面展现出巨大潜力。然而,现有研究多集中于医疗提供者(如医生)视角,或聚焦于技术性能评估,而相对缺乏从医疗健康消费者(即患者及普通用户)角度的系统性考察。特别是在人机交互过程中,技术的不确定性和信息的不确定性如何影响用户对AI的信任,并最终影响其对AI生成健康信息的采纳意愿,尚未得到充分的实证量化分析。

为填补这一研究空白,本研究旨在从不确定性降低理论(Uncertainty Reduction Theory, URT)的视角出发,探究医疗健康消费者对ChatGPT信任感的前因,以及这种信任如何影响他们对ChatGPT生成健康信息的采纳意愿。研究者认为,当用户面对作为“黑箱”且可能生成不准确信息的ChatGPT时,会经历显著的互动不确定性。URT为理解和降低这种不确定性提供了一个有力的理论框架,它认为个体会通过主动、被动等策略来减少不确定性,从而建立信任。因此,本研究的目标是:(1)探索医疗健康消费者对ChatGPT的信任如何影响其健康信息采纳意愿;(2)从不确定性降低的视角,分析影响对ChatGPT信任的关键因素。

二、研究设计与详细流程 本研究采用横断面问卷调查法,其工作流程严谨,主要包括研究模型构建、测量工具开发与翻译、数据收集、数据分析四个主要环节,具体如下:

  1. 理论模型构建与假设发展:基于不确定性降低理论,研究者构建了一个综合性的研究模型。模型将“对ChatGPT的信任”设定为影响“健康信息采纳意愿”的核心中介变量。前因变量被整合到URT框架下:主动策略方面,考察了社会影响(Social Influence)和情境正常性(Situational Normality);被动策略方面,考察了信息质量(Information Quality)和信息披露(Information Disclosure)。此外,模型还纳入了感知互动环境的三个关键ChatGPT特征:拟人化(Anthropomorphism)、自主性(Autonomy)和个性化(Personalization)。基于此,研究提出了八个主要假设(H1-H8),分别预测上述七个前因变量与信任的正向关系(H2-H8),以及信任对采纳意愿的正向影响(H1)。

  2. 测量工具准备与预测试:由于缺乏专门针对患者与ChatGPT交互的成熟量表,研究者从现有关于AI的文献中,为每个关键构念(Construct)适配了测量题项。所有题项均采用7点李克特量表(1=非常不同意,7=非常同意)。英文问卷首先被翻译成中文,并由两名健康信息管理方向的研究生进行内容效度审核。为确保问卷的清晰度和可靠性,研究对20名健康信息管理与社会医学专业的研究生进行了预测试,并根据反馈进行了修订。最终问卷包含29个测量题项。根据统计指南(项目数与样本量比例至少1:10),研究确定了至少需要290名有效参与者。

  3. 研究对象招募与数据收集

    • 时间与平台:数据收集于2024年9月至10月,通过中国领先的在线调研平台“Credamo”进行。
    • 抽样与筛选:采用两阶段抽样法。首先,通过在线筛选问卷,从超过800名受访者中,筛选出371名曾使用ChatGPT搜索过健康信息的医疗健康消费者(排除从未使用过或为医疗专业人士的受访者)。随后,邀请这371名符合条件的用户完成主问卷调查。
    • 质量控制:在数据收集阶段和后续清理阶段,实施了严格的质量控制。排除标准包括:完成时间过短或过长、答案呈现规律性模式、注意力检查题项未通过、以及答案前后不一致的问卷。
    • 最终样本:共发放371份问卷,回收363份,回收率97.8%。经过数据清洗,最终获得308份有效问卷,有效率为83%,符合并超过了预设的样本量要求。
  4. 数据分析方法

    • 使用SPSS 26.0进行描述性统计和共同方法偏差检验(Harman单因子检验)。
    • 使用SmartPLS 4.0软件进行偏最小二乘结构方程模型(PLS-SEM)分析。选择PLS-SEM是因为它能较好地处理较小的样本量,且对数据正态性分布要求不严格。
    • 分析步骤包括:首先,评估测量模型的信度(克朗巴哈系数α、组合信度CR)、收敛效度(因子载荷、平均方差抽取AVE)和区分效度(Fornell-Larcker准则)。其次,评估结构模型,包括检验多重共线性(方差膨胀因子VIF)、路径系数的显著性(通过Bootstrap法计算t值和p值)、效应量(ƒ²值)以及模型对因变量变异的解释力(R²值)。

三、主要研究结果 研究结果详细验证了理论模型,揭示了各变量间复杂的关系。

  1. 样本特征:有效样本(N=308)中,女性(63.3%)多于男性(36.7%);平均年龄约31.93岁;受教育程度较高(本科/大专占70.1%,研究生占28.6%);大多数自评健康状况良好;对ChatGPT的熟悉度普遍较高(“熟悉”和“非常熟悉”合计占85.4%)。

  2. 测量模型质量:所有构念的克朗巴哈α系数和组合信度CR值均大于0.7,AVE值均大于0.5,表明测量工具具有良好信度和收敛效度。区分效度检验也符合标准。共同方法偏差检验(Harman单因子=39.326%)和多重共线性检验(所有VIF值<3.3)均未发现严重问题。

  3. 结构模型与假设检验结果

    • 对采纳意愿的影响H1得到强有力支持。对ChatGPT的信任与健康信息采纳意愿呈显著正相关(β = 0.309, t = 4.763, p < 0.001)。信任这一变量解释了采纳意愿17.8%的变异(R² = 0.178),凸显了其在用户决策中的核心作用。
    • 对信任的影响
      • 信息质量(H7) 是影响信任的最强预测因子(β = 0.447, p < 0.001),效应量也最大(ƒ² = 0.299)。这表明用户最看重ChatGPT所提供健康信息的准确性、可靠性和可理解性。
      • 情境正常性(H3) 对信任有显著正向影响(β = 0.237, p < 0.001)。用户感知的交互环境越有序、稳定,越容易建立信任。
      • 自主性(H5)个性化(H6) 对信任也有显著正向影响,但效应量相对较小(分别为β = 0.147, p = 0.001;β = 0.151, p = 0.004)。这表明ChatGPT独立完成任务和提供定制化信息的能力能增强用户信任,但其重要性次于信息质量。
      • 拟人化(H4)信息披露(H8) 与信任的关系在统计学上不显著(p值分别为0.088和0.061)。一个可能的解释是,在涉及健康的高风险认知情境下,用户更依赖信息质量等核心线索,而非拟人化等外围线索;而过多的信息披露可能超出了用户的认知负荷。
      • 社会影响(H2) 与信任的关系呈现显著负相关(β = -0.115, p = 0.028),与原假设相反。研究者解释,这可能源于ChatGPT早期使用中社交媒体上流传的关于其“偏见”、“虚假信息”的负面讨论,以及高教育水平用户可能更倾向于独立判断而非从众。
    • 控制变量:对ChatGPT的熟悉度是唯一显著的控制变量,与信任正相关(β = 0.192, p = 0.002)。性别、年龄、收入、自感健康状况等均不显著。
    • 中介效应:分析显示,社会影响、情境正常性、自主性、个性化、信息质量均通过“对ChatGPT的信任”这一中介变量,间接影响健康信息采纳意愿。

四、研究结论与价值 本研究得出核心结论:医疗健康消费者对ChatGPT的信任是其采纳由ChatGPT生成健康信息的关键驱动因素。而培养这种信任,最关键的是确保信息质量。此外,营造一个正常、稳定的交互情境(情境正常性),以及提升ChatGPT的自主响应能力和个性化服务水平,也都是有效的信任构建策略。

本研究的价值体现在以下几个方面: * 理论贡献:首先,将研究视角从医疗提供者拓展至医疗消费者,丰富了GenAI在健康信息场景下的用户行为研究。其次,明确将“健康信息采纳意愿”而非泛化的“使用意愿”作为结果变量,并以信任为中介,深化了对人机交互中决策机制的理解。最后,创新性地应用不确定性降低理论(URT)来框架化分析信任前因,强调了人机交互中不确定性管理的重要性,并为URT在新技术(尤其是GenAI)和高风险领域(医疗健康)的应用提供了实证支持。 * 实践意义:为ChatGPT等GenAI工具的健康应用开发者、医疗服务提供者及政策制定者提供了具体指引。开发者应优先保障输出信息的准确性与可靠性,同时优化交互流程的稳定性和响应速度,并提供适度的个性化服务。需警惕社会影响的负面影响,可通过提供高质量内容、正面引导舆论、提升用户健康信息素养来对冲。政策制定者可参考本研究发现的信任关键因素,制定相关标准与监管框架,以促进负责任、可信赖的AI在医疗健康领域的整合与应用。 * 方法论贡献:采用PLS-SEM方法对复杂的多变量关系进行了量化建模,为相关领域的研究提供了可复现的方法论范例和实证数据支持。

五、研究亮点与创新 1. 视角创新:率先从医疗健康消费者视角,系统量化研究其对ChatGPT的信任与健康信息采纳问题。 2. 理论创新:成功将源于人际传播的“不确定性降低理论”应用于分析人(医疗消费者)与生成式AI(ChatGPT)在医疗健康这一高风险领域的互动,构建了一个新颖且逻辑严密的研究模型。 3. 发现创新:揭示了在医疗健康语境下,信息质量是压倒性的首要信任驱动因素,而社会影响可能产生负面作用,这两个发现挑战或深化了部分现有认知,具有重要启示意义。 4. 方法严谨:采用了两阶段抽样确保样本针对性,实施了严格的数据质量控制,并运用了适合探索性研究和中小样本的PLS-SEM分析方法,保证了研究结果的稳健性。

六、其他有价值的内容与局限 研究者也坦诚地讨论了本研究的局限性,为未来研究指明了方向:首先,研究聚焦于ChatGPT,结论向其他大模型或GenAI的推广需谨慎;采用横断面数据,无法揭示因果动态。其次,URT框架可能未涵盖所有重要因素(如文化、自我效能感),模型对采纳意愿的解释力(17.8%)尚有提升空间。再次,依赖自我报告问卷数据,可能存在回忆偏差等,且测量工具非专为ChatGPT健康场景设计。最后,样本存在偏差(主要为高教育水平的中国用户),限制了结论的普适性;未控制数字健康素养、先前经验等潜在混淆变量。未来研究可考虑纵向设计、跨文化比较、结合质性方法,并纳入更多样的用户样本和控制变量。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com