关于《生成式 AI 交互情境下用户隐私风险自适应模型构建》研究的学术报告
一、 研究作者、机构与发表信息 本研究的主要作者为樊舒(博士后,助理研究员),其余作者包括王雪绮、杨婷、董晶。研究团队主要来自四川大学公共管理学院,合作作者董晶来自华中师范大学信息管理学院。该研究已于2026年3月发表在学术期刊《情报杂志》(Journal of Intelligence)第45卷第3期上。
二、 学术背景与研究目的 本研究属于信息科学,特别是人机交互(Human-Computer Interaction, HCI)与用户信息行为研究领域,并紧密关联隐私计算、信息安全与社会心理学的交叉方向。
随着生成式人工智能(Generative AI, gen AI)技术的快速普及(截至2025年6月,我国用户规模已达5.15亿),其在提升服务效能与用户体验的同时,也引发了日益突出的用户隐私安全问题。与传统数字环境(如社交媒体、移动应用)不同,gen AI 具有高度交互性、个性化响应和持续演进对话的特点,可能潜移默化地诱导用户在持续交互中暴露更多敏感信息,其隐私边界更为模糊,风险更加复杂。现有研究对 gen AI 情境下用户隐私行为的研究多集中于静态的影响因素分析(如感知风险、感知收益、AI特性、社会文化等),或特定披露模式与动因的分类,但普遍忽视了用户隐私决策是一个动态、情境化和自适应的过程。用户并非在单一时点做出一次性权衡,而是在与 AI 的持续互动中,根据外部刺激和内在评估不断调整其披露行为。
因此,本研究旨在弥补上述研究空白,其核心目标是:系统探究用户在与 gen AI 交互过程中隐私信息披露的内在驱动机制、认知决策路径及行为应对模式,并构建一个能够揭示其动态演化过程的理论模型。 为实现这一目标,研究整合了三个经典理论作为分析框架:隐私计算理论(Privacy Calculus Theory)(侧重风险与收益的权衡)、保护动机理论(Protection Motivation Theory, PMT)(侧重威胁评估与应对评估)以及刺激—机体—反应模型(Stimulus-Organism-Response Model, S-O-R)(侧重外部刺激通过内部认知/情感引发行为的过程)。通过整合这三个理论,研究旨在提供一个更全面、动态的视角来解析 gen AI 交互中的用户隐私行为。
三、 研究详细流程 本研究采用定性研究范式,具体流程可分为四个主要步骤:研究设计、数据收集、数据分析(人工与GPT辅助编码)、模型构建与讨论。
第一步:研究设计与对象招募。 研究采用半结构化访谈法收集数据。通过随机抽样,最终招募了26名有效受访者,其人口统计学特征与 gen AI 的核心用户群体高度吻合:年龄范围为18-35岁,其中21-25岁占57.69%;学生占73.08%;本科学历占84.62%。样本结构确保了研究对核心用户群体的代表性。访谈提纲围绕三个主题维度设计:1) 使用动机与隐私风险感知;2) 信息收集与隐私政策认知;3) 隐私披露下的行为应对与调适策略。
第二步:数据收集。 研究团队依据访谈提纲对26名受访者进行了一对一的深度访谈。访谈过程被录音并随后逐字转录为文本,最终形成了共计61,234字的原始文本数据,作为后续分析的资料基础。
第三步:数据分析。 这是本研究的核心环节,采用了主题分析法(Thematic Analysis)。分析过程结合了人工编码与GPT辅助编码两种方法,以提升编码的信度与效度。具体流程遵循六阶段主题分析法: 1. 熟悉文本:两位经过培训的编码人员反复阅读转录文本,形成整体认知。 2. 生成初始编码:两位编码人员独立对文本进行开放式编码,识别所有与研究问题相关的信息单元。 3. 寻找基本主题:对初始编码进行归类与整合,提炼具有内在逻辑关联的基本主题。同时,计算两位编码人员编码结果的霍尔斯蒂信度系数(Holsti‘s Reliability),结果大于0.8,表明编码一致性良好。 4. 审查和整理主题:将初步形成的主题与原始数据和编码集进行比对,检验其准确性,剔除不充分或重复的主题。 5. 定义和命名主题:深入分析并确定最终的主题结构。 6. 产生结果:对分析结果进行系统呈现。
在GPT辅助编码部分,研究团队设定了特定流程:首先,结合隐私计算理论、PMT和S-O-R模型定义核心要素(如“刺激”对应外部触发因素,“机体”对应内部认知评估,“反应”对应行为)。其次,设计提示词指令,引导ChatGPT对访谈文本进行编码,识别与理论框架和隐私披露行为相关的主题。最后,同样计算人工编码与GPT编码的一致性信度,结果大于0.8,证明了GPT编码在本研究中的有效性。最终,两种编码方法的结果相互补充和验证。
第四步:模型构建与深入讨论。 基于主题分析的结果,研究提炼出用户隐私风险自适应过程的核心构成要素,并整合成一个动态的理论模型。随后,研究对模型的各个组成部分(触发因素、决策过程、行为反应)进行了详细的阐释和讨论,并与现有文献进行对话,指出本研究的贡献与创新之处,最后提出了面向政府、平台和用户三个层面的对策建议。
四、 主要研究结果 通过对访谈数据的主题分析,研究识别出10个核心主题,归纳到三个关键环节中,并据此构建了“生成式 AI 交互情境下用户隐私风险自适应模型”。该模型包含三个核心组成部分:触发因素、决策过程、行为反应。
1. 触发因素: 这是引发用户隐私风险感知的外部刺激(S)。研究发现了四类主要触发因素: * 社交信息触发:用户通过同学推荐、社交媒体推送等非正式渠道了解和信任 gen AI 工具。这种社会遵从(Social Conformity)行为可能使用户在未充分评估风险的情况下开始使用并披露信息。例如,有受访者提到“听同学推荐”而使用某AI工具。 * 隐私政策触发:作为正式信息源的隐私政策,其复杂性、同质性、真实性和可信度成为关键影响因素。复杂的条款使用户放弃阅读,同质化的文本引发信息过载,而对其真实性的怀疑则导致制度信任缺失,这些都影响了用户的隐私感知和披露决策。 * 经验性威胁触发:用户过往的直接或间接隐私泄露经历(如接到骚扰电话),以及对数据滥用的感知,会提高其对 gen AI 隐私风险的警惕性,从而抑制披露意愿。 * 情境需求触发:必要性需求(如完成紧急的学术任务)、时间压力和任务紧急度会显著驱动用户暂时搁置隐私顾虑,为了获取即时功能收益而选择披露信息。这体现了收益驱动逻辑在特定情境下的压倒性作用。
2. 决策过程: 这是用户在外部刺激下产生的内部认知与情感评估(O),是隐私披露行为的核心驱动力。该过程包含三个相互权衡的维度: * 隐私侵犯风险感知:用户主要担忧三类风险。感知泄露风险最为突出,例如担心输入的文章内容被纳入AI数据库。其次是感知侵权风险(如担忧生成内容侵犯他人知识产权)和感知过载风险(面对AI提供的过多选择和信息时的焦虑感)。 * 功能性收益感知:这是驱动用户披露信息的主要正面力量,包括四个方面:认知启发(获得思路拓展)、效率提升(节省时间)、体验优化(交互友好)和情感支持(情绪疏导)。研究发现,高价值的复合型收益是用户容忍一定隐私风险的关键动因。 * 应对能力评估:用户评估自身是否有能力有效管理风险。包括:应对有效性(采取的措施是否有用,分积极和消极两种)、自我效能感(对自己保护隐私能力的信心)和应对成本(为保护隐私所需付出的额外努力)。高自我效能感和较低的感知应对成本会促使用户采取更主动的保护行为。
3. 行为反应: 这是基于认知评估后产生的最终行为输出(R)。研究归纳为两大类: * 适应性应对:用户在评估后采取的主动、策略性保护行为。具体又分为两种路径: * 防御性保护:旨在最小化风险,如避免敏感数据输入、权限管理(关闭后台权限)、功能限定。 * 选择性披露:在必要披露时进行风险最小化处理,如混淆提问身份、优化提问方式(转化问题语义)、多平台分散使用。 * 非适应性应对:用户在感知风险过高而应对能力不足时采取的退缩行为,主要包括减少使用和停止使用。这反映出用户在功能需求与隐私安全间权衡后的被动取舍。
这些结果逻辑紧密相连:外部触发因素(如看到复杂隐私政策或面临紧急任务)激活了用户的隐私意识;随后,用户进入内部决策过程,在感知到的隐私风险、期望的功能性收益以及自评的应对能力三者之间进行动态权衡;最终,这种权衡的结果外化为具体的行为反应(适应性或非适应性应对)。整个模型揭示了一个循环往复的“刺激-评估-反应-反馈”动态过程,用户的行为后果(如停止使用导致任务效率下降)可能反过来成为新的触发因素,引发新一轮的评估与调整。
五、 研究结论与价值 本研究的核心结论是提出了一个动态整合的“用户隐私风险自适应模型”,该模型系统地揭示了在 gen AI 交互这一新兴且复杂的场景中,用户的隐私披露行为并非简单的静态成本-收益计算,而是一个由外部情境触发、经过多维内部认知评估、并最终导向不同类型行为反应的连续动态过程。
其科学价值在于:理论整合与深化。研究成功地将隐私计算理论(侧重权衡)、保护动机理论(侧重威胁与应对评估)和 S-O-R 模型(侧重过程机制)有机整合,为理解人智交互中的隐私行为提供了一个更具解释力的多维理论框架。它强调了“动态性”和“自适应”这两个在以往静态研究中被忽视的关键特征,丰富了该领域的理论基础。
其应用价值在于为不同利益相关方提供了具体的、有依据的行动启示: * 对政府:建议更新法律法规,明确责任;通过案例曝光加强公众教育;建立算法备案与审查机制,提升透明度。 * 对平台:建议贯彻最小必要原则收集数据;简化隐私政策表述;采用隐私增强技术(如差分隐私);开发隐私风险可视化提示工具;建立便捷的投诉与数据补救渠道。 * 对用户:建议提升个人隐私保护素养与 AI 素养;主动管理隐私设置(如关闭非必要授权);在交互中采取策略性披露(如优化提问方式);将适应性应对行为转化为习惯。
六、 研究亮点 1. 研究视角的创新性:突破了传统隐私研究聚焦于静态因素关系的局限,首次系统揭示了 gen AI 交互中用户隐私决策的动态、自适应过程,强调行为是持续互动的结果。 2. 理论框架的整合性:创造性地融合了隐私计算理论、保护动机理论和 S-O-R 模型,构建了一个能够同时解释“为何权衡”(隐私计算)、“如何评估威胁与能力”(PMT)以及“过程如何发生”(S-O-R)的整合模型,理论贡献突出。 3. 研究方法的严谨与前沿性:采用质性研究方法(半结构化访谈),通过人工编码与GPT辅助编码相结合的方式分析数据,既保证了深度理解,又利用了新兴技术提升分析效率和信度检验,方法上具有探索性和严谨性。 4. 研究发现的具体性与实践导向:研究不仅提出了抽象的模型,更通过丰富的访谈资料,提炼出非常具体的行为策略(如“混淆提问身份”、“多平台分散使用”),使得研究结论对平台产品设计和用户自我管理具有直接、可操作的指导意义。
七、 其他有价值内容 研究在讨论部分对模型各环节进行了深入阐释,提出了一些有价值的观点:例如,指出“社交信息触发”可能导致用户因群体盲从而忽视隐私判断;“情境需求触发”在功能不可替代时具有强大驱动力,能暂时压倒其他顾虑;研究还发现,在 gen AI 情境下,“功能性收益感知”因其高度的实用性和情感嵌入性,在隐私权衡中常占据优先权重,这与某些传统情境下的研究结论不同。这些细致的讨论深化了对模型机制的理解。