分享自:

生成式AI用户信息披露意向研究:基于感知可供性视角

期刊:J. Theor. Appl. Electron. Commer. Res.DOI:10.3390/jtaer20020099

研究报告:从感知可供性视角审视生成式人工智能用户信息披露意愿

本研究由来自杭州电子科技大学管理学院的周涛(Tao Zhou)与吴潇莹(Xiaoying Wu)共同完成。论文《Examining generative AI user disclosure intention: a perceived affordance perspective》发表于期刊《Journal of Theoretical and Applied Electronic Commerce Research》2025年,第20卷。

学术背景与研究目的

本研究隶属于信息系统与管理学交叉领域,具体关注生成式人工智能(Generative AI)背景下的用户行为研究。随着生成式AI技术的快速发展及其在医疗、新闻、教育等领域的广泛应用,其在提升生产力的同时,也引发了严重的用户隐私风险担忧。生成式AI需要收集用户数据以提供更精准的答案,这可能导致用户因担心隐私泄露而减少信息披露,从而影响平台通过数据训练持续优化模型的能力,最终损害内容生成质量并导致虚假信息增多。然而,现有研究多集中于传统环境(如在线医疗、社交网络、移动应用)中的用户信息披露,对生成式AI这一新兴技术场景下的用户信息披露机制缺乏深入探讨。

为此,本研究旨在填补这一空白,从技术-社会双重视角的感知可供性(Perceived Affordance)理论出发,探究影响生成式AI用户信息披露意愿的关键因素。可供性(Affordance)理论源自生态学,后被引入设计与人机交互领域,指信息技术物为使用者提供的可能行动。本研究借鉴社会-技术理论,将生成式AI的感知可供性划分为三个维度:内容生成可供性(属于技术可供性)、隐私保护可供性(属于技术可供性)以及拟人化交互可供性(属于社会可供性)。具体而言,内容生成可供性包括信息关联性、内容质量和交互性;隐私保护可供性包括匿名性和隐私声明;拟人化交互可供性包括共情能力和社会临场感。研究模型假设这三个维度的感知可供性通过影响用户的隐私关切(Privacy Concern)和互惠感知(Reciprocity),进而影响其信息披露意愿。研究目标是揭示这些构念间的作用路径,为生成式AI平台促进用户信息披露、实现可持续发展提供理论依据与实践启示。

详细研究流程

本研究采用问卷调查法,并运用偏最小二乘结构方程模型(PLS-SEM)与模糊集定性比较分析(fsQCA)相结合的混合方法进行数据分析,流程严谨、方法互补。

第一阶段:研究工具开发与数据收集。 首先,研究者基于现有文献,结合生成式AI的具体情境,改编了测量所有构念的量表项目,以确保内容效度。量表涵盖了十个一阶构念:信息关联性(3题)、内容质量(3题)、交互性(3题)、匿名性(3题)、隐私声明(3题)、共情能力(3题)、社会临场感(3题)、隐私关切(4题)、互惠感知(3题)和披露意愿(3题)。所有题项均采用七点李克特量表。在正式调研前,研究对20名具有丰富生成式AI使用经验的用户进行了预测试,并根据反馈修订了部分题项以提升清晰度。问卷共分三部分:第一部分介绍生成式AI的基本功能、隐私声明和拟人化对话示例,以帮助受访者全面理解并减少认知偏差;第二部分收集人口统计信息和生成式AI使用情况;第三部分为上述构念的测量题项。

其次,采用线上调查平台和滚雪球抽样法进行数据收集。通过在微信等社交媒体平台邀请有生成式AI使用经验的用户填写问卷,并鼓励他们转发问卷链接。数据收集持续两周,共回收问卷。研究者对回收数据进行了严格筛选,剔除了无使用经验或所有题项答案完全一致的无效问卷,最终获得512份有效样本。样本人口统计特征显示,女性占60.2%,20-39岁用户占81.3%,拥有大专及以上学历者占90.8%,与我国互联网信息中心报告中生成式AI用户以高学历年轻群体为主的趋势基本一致。用户最常使用的生成式AI包括ChatGPT(78.5%)、百度文心一言(75.8%)、New Bing(53.5%)等,主要用途为创意工作、学习/工作辅助、翻译和日常聊天。

第二阶段:数据分析方法执行。 本研究采用混合方法分析数据。首先使用PLS-SEM检验测量模型与结构模型。使用SmartPLS 4软件,先检验测量模型的信度(通过Cronbach‘s α和组合信度CR评估)和效度(通过因子载荷、平均方差抽取量AVE及区分效度评估)。对于三个二阶构念(内容生成可供性、隐私保护可供性、拟人化交互可供性),采用了两阶段法:先获取其一阶因子的潜变量得分,再将得分作为形成性指标用于二阶因子分析,并检验了方差膨胀因子(VIF)以排除多重共线性问题。随后,使用Bootstrapping方法(5000次重复抽样)检验结构模型中的路径系数显著性以及隐私关切和互惠感知的中介效应。

鉴于PLS-SEM主要关注自变量对因变量的“净效应”,可能忽略变量间的多重并发因果关系,研究进一步采用fsQCA方法进行组态分析。fsQCA结合了定量与定性方法的优势,旨在探索导致高信息披露意愿的前因条件组合(即组态路径)。研究者将前因变量(七个一阶感知可供性构念、隐私关切、互惠感知)和结果变量(信息披露意愿)进行校准,转化为模糊集成员分数,然后通过真值表分析,识别出能够导致高信息披露意愿的核心条件与边缘条件组合。

主要研究结果

测量模型与结构方程模型结果: 测量模型检验显示,所有构念的Cronbach’s α和CR值均大于0.8,AVE值均大于0.5,因子载荷在0.830至0.926之间,且各构念AVE的平方根均大于其与其他构念的相关系数,表明模型具有优异的信度、聚合效度和区分效度。二阶因子分析显示,所有一阶因子对其对应二阶因子的外部权重均显著大于0.2,VIF值均小于3,支持了二阶因子结构的有效性。

结构模型路径分析结果部分支持了研究假设。具体而言: 1. 感知内容生成可供性对互惠感知有显著正向影响,但对隐私关切的负面影响不显著。 2. 感知隐私保护可供性对隐私关切有显著负向影响,对互惠感知有显著正向影响,且对隐私关切的影响强度更大。 3. 感知拟人化交互可供性对隐私关切有显著负向影响,对互惠感知有显著正向影响,且对互惠感知的影响更强。 4. 隐私关切对信息披露意愿有显著负向影响。 5. 互惠感知对信息披露意愿有显著显著正向影响,且其影响强度大于隐私关切。 模型对隐私关切、互惠感知和信息披露意愿的解释方差(R²)分别为37%、59%和53%,显示出良好的解释力。

中介效应检验表明,除“内容生成可供性 → 隐私关切 → 信息披露意愿”这条路径不显著外,其余通过隐私关切或互惠感知的中介路径均显著。

模糊集定性比较分析结果: fsQCA分析识别出两条能够触发用户高信息披露意愿的组态路径(S1和S2)。两条路径共享的核心条件(即至关重要的因素)包括:内容质量、交互性、匿名性、共情能力、社会临场感和互惠感知。隐私声明是两条路径共有的边缘条件(即不可或缺但非核心的因素)。 * 组态S1(覆盖率0.526):除了共有条件外,信息关联性作为边缘条件出现,隐私关切是可选的。这表明,当生成式AI能确保高质量的内容生成、有效的隐私保护和拟人化交互时,用户即使存在隐私关切,也会因为感受到互惠而倾向于披露信息。这条路径更关注服务体验。 * 组态S2(覆盖率0.504):除了共有条件外,隐私关切作为缺失的边缘条件(即低隐私关切),信息关联性是可选的。这表明,当生成式AI能确保隐私保护和拟人化交互,且用户本身隐私关切较低时,即使信息关联性不强,他们也愿意披露信息。这条路径更关注隐私风险。

结论与价值

本研究得出以下核心结论:生成式AI用户的感知可供性(包括内容生成、隐私保护和拟人化交互三个维度)通过影响其隐私关切和互惠感知,进而决定其信息披露意愿。其中,内容生成可供性是影响互惠感知的主要因素,而隐私保护可供性是影响隐私关切的主要因素。互惠感知对披露意愿的促进作用强于隐私关切的抑制作用。fsQCA进一步揭示了两条实现高披露意愿的差异化路径,强调了核心条件组合的重要性。

研究的科学价值与应用价值: 1. 理论贡献:首先,将用户信息披露研究拓展至生成式AI这一新兴且重要的场景,丰富了生成式AI用户行为的研究谱系。其次,从技术-社会视角系统构建并实证检验了生成式AI感知可供性的三维度模型,为理解该技术的复杂属性提供了综合框架。最后,揭示了感知可供性通过隐私关切与互惠感知双中介影响披露意愿的作用机制,深化了对该行为背后心理动因的理解。 2. 实践启示:为生成式AI平台运营商、政策制定者和开发者提供了明确指引。平台应:(a)着力提升内容生成能力,确保信息准确可靠,优化交互体验;(b)加强隐私保护,不仅提供清晰易懂的隐私声明,更需开发如匿名化、隐私偏好设置等直接可感知的功能,以降低用户隐私忧虑;(c)注重拟人化交互设计,增强AI的共情能力与社会临场感,营造友好信任的互动氛围。政策制定者需针对生成式AI的数据处理特性,完善相关法律法规,切实保障用户隐私权益。

研究亮点

  1. 研究视角新颖:率先从感知可供性理论切入,系统探究生成式AI用户信息披露这一前沿且关键的问题,选题具有重要的理论前瞻性和现实紧迫性。
  2. 理论模型构建全面:创造性地将感知可供性划分为技术维度(内容生成、隐私保护)与社会维度(拟人化交互),并细化为七个具体的一阶构念,模型构建层次清晰、涵盖面广。
  3. 研究方法严谨互补:创新性地结合使用PLS-SEM与fsQCA混合方法。PLS-SEM验证了变量间的净效应与中介机制,而fsQCA则揭示了导致高披露意愿的多重并发因果路径(组态),两种方法相互印证、互为补充,使研究发现更为 robust 和深入。
  4. 研究发现深刻:不仅验证了部分传统假设在生成式AI场景下的适用性(如隐私关切、互惠感知的作用),还发现了独特现象(如内容生成可供性对隐私关切影响不显著),并通过组态分析指明了实现高披露意愿的不同条件组合,为平台差异化策略提供了精细化的指导。

其他有价值的发现

研究还指出,在隐私保护可供性中,匿名性的影响权重高于隐私声明,这可能是因为用户能更直接地感知匿名性功能(如使用昵称),而常常忽略冗长隐蔽的隐私声明。因此,平台除了优化隐私声明的表述,更应强化用户可直观操控的隐私保护功能。此外,研究发现互惠感知是驱动披露意愿的强有力因素,且是两条组态路径的核心条件,这提示平台应着力让用户感知到信息交换所带来的价值回报,以满足其功利性需求。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com