本研究由丹麦哥本哈根商学院数字化系的 Freya Seeger、Christiane Lehrer 与德国耶拿弗里德里希·席勒大学的 Michael Wessel 共同完成。该研究以研究论文的形式发表于学术期刊 electronic markets 2026年第36卷第31期。
本研究隶属于信息系统与管理学交叉领域,尤其聚焦于生成式人工智能在社交媒体背景下的用户行为研究。
研究背景: 生成式AI的快速普及正在深刻改变社交媒体内容的创作方式。一方面,AI能以极低的成本高效生成高质量内容;另一方面,全球范围内(如欧盟《人工智能法案》)正涌现出对AI生成内容进行强制性标签披露的法规要求。这种转变引发了核心矛盾:平台和创作者为了合规而实施的AI标签,可能会使用户感知到内容“非人化”,从而触发算法厌恶,导致用户参与度下降。然而,过往研究存在几点不足:1) 大多将AI参与视为“人类创作”与“AI创作”的二元对立,忽视了“AI增强”(即人类主导、AI辅助)这一日益普遍的混合模式;2) 对于AI标签如何影响用户参与的内在心理机制(特别是情感路径)探索不足;3) 内容类型(情感型 vs. 理性型)和AI披露时机(早期 vs. 晚期)作为关键情境因素的调节作用尚未得到充分检验。
研究目标: 本研究旨在通过两项在线实验,系统性地探讨以下问题: 1. AI参与程度(人类创作、AI增强、AI生成)如何影响用户在社交媒体上的行为参与和情感参与? 2. 情感参与是否在AI参与度影响行为参与的过程中起到中介作用? 3. 内容类型(情感型/理性型)是否会调节AI参与度对情感参与的影响? 4. 披露时机(早期/晚期)是否会调节AI参与度对情感参与的影响?
本研究包含一项前测和两项主实验,均采用基于情境的在线实验方法,以模拟用户在Instagram平台上的真实决策环境。
1. 前测 (Pretest): * 目的: 筛选并验证实验材料。确保所选用的Instagram个人资料图片能被参与者认为是可信的(即可能由人类、AI增强或AI生成),并确认资料内容在情感诉求和理性诉求维度上存在清晰区分。 * 对象与处理: 研究者从真实Instagram资料中选取视觉内容,移除了可能带来偏见的元素(如用户名、头像)。参与者被要求观看一系列资料,并评估内容来源的可信度以及内容的情感/理性程度。 * 结果与材料选定: 基于前测结果,研究者最终选定两份Instagram资料用于主实验:一份在情感诉求上得分高,另一份在理性诉求上得分高。这两份资料中的图片被认为可以有效地代表三种AI参与水平。
2. 研究一:AI参与度标签与内容类型的交互影响 * 实验设计: 采用3(AI参与度:人类创作 vs. AI增强 vs. AI生成)× 2(内容类型:情感型 vs. 理性型)混合设计。AI参与度为组间变量,内容类型为组内变量(每位参与者会观看两种内容类型的资料,但AI标签不同)。 * 研究对象与样本量: 通过众包平台Prolific招募了346名初始参与者。经过数据清洗(排除极端完成时间、未通过操纵检查、存在直线填答行为的个体),最终有效样本为325名参与者,共计626个有效观测值。参与者平均年龄35岁,55%为女性。 * 实验流程: 1. 引导与随机分组: 参与者被告知,Meta公司要求创作者披露内容创作方式。他们被随机分配到三种AI标签条件之一,并首先观看一种内容类型(情感或理性)的Instagram资料。 2. 刺激呈现: 参与者进入一个高度仿真的Instagram资料界面。根据其分配的条件,资料中的所有图片都带有统一的图标标签(人类、AI增强或AI生成图标)。参与者可以像在真实App中一样滚动、点击放大图片。关键操纵在于仅改变图标标签,图片内容本身在所有条件下完全一致。 3. 测量: 观看资料后,参与者填写问卷,测量其对刚看过资料的情感参与(使用5个题项,如“观看此账号内容时我感到兴奋”)和行为参与意愿(使用4个题项,如“我想关注此账号”)。量表为7点李克特量表。同时收集人口统计学变量及在线信任、社交倾向等控制变量。 4. 重复流程: 随后,参与者观看第二份资料(内容类型与第一份不同,AI标签条件也不同),并再次完成相同的测量问卷。 * 数据分析方法: 使用普通最小二乘法回归检验直接效应,使用Hayes的PROCESS宏(Model 4和7)进行中介和调节中介分析,采用10000次bootstrap抽样计算置信区间。为处理组内设计的非独立性,在研究一的分析中标准误在参与者层面进行了聚类调整。
3. 研究二:AI参与度标签与披露时机的交互影响 * 实验设计: 采用3(AI参与度:人类创作 vs. AI增强 vs. AI生成)× 2(披露时机:早期 vs. 晚期)组间设计。 * 研究对象与样本量: 通过Prolific招募了443名新参与者。经类似数据清洗后,最终有效样本为371名参与者。 * 实验流程: 1. 任务设定: 本次实验只使用情感型内容资料。参与者被要求浏览资料并主动“点赞”他们最喜欢的三张图片,以增加行为真实性。 2. 披露时机操纵: * 早期披露组: 在进入资料页面前,会先看到一个弹出消息,明确说明该资料内容的创作方式(人类/AI增强/AI生成),并展示对应图标。 * 晚期披露组: 直接进入资料页面,无初始披露。仅当参与者点击图片的“点赞”按钮时,才会弹出与早期披露组相同的消息,告知其内容创作方式,并需要确认是否继续点赞。 3. 测量: 互动完成后,测量情感参与和行为参与。行为参与的测量量表改为0-100分制以提高区分度,但后续分析中与情感参与一同标准化为0-100分以便比较。 4. 事后简报: 实验结束后,向参与者充分披露实验的真实目的和所使用的欺骗手段(即内容来源可能被误标),并给予他们撤回数据的权利。 * 数据分析方法: 与研究一类似,使用回归和PROCESS宏(Model 7)进行假设检验。
1. AI参与度对行为参与的直接影响(H1): 两项研究结果高度一致且稳健。与“人类创作”标签的内容相比: * “AI增强” 标签导致行为参与显著下降(研究一:下降6.54个百分点;研究二:下降7.75个百分点)。 * “AI生成” 标签导致行为参与下降更为剧烈(研究一:下降14.22个百分点;研究二:下降16.31个百分点)。 结论: H1得到强有力支持。AI参与度越高,用户的行为参与意愿越低,呈现出明显的“剂量效应”。
2. 情感参与的中介作用(H2a-c): 两项研究均证明了完整的链式中介路径。 * 路径a (H2a): 更高的AI参与度显著降低了情感参与。AI增强和AI生成内容引发的情感参与均显著低于人类创作内容,且AI生成的负面效应更大。 * 路径b (H2b): 更高的情感参与显著预测了更高的行为参与。 * 中介效应 (H2c): 在纳入情感参与作为中介变量后,AI参与度对行为参与的直接效应变得不显著,而间接效应均显著为负。这意味着,AI标签并非直接“吓退”用户,而是通过削弱用户与内容之间的情感连接,进而导致了点赞、关注等行为意愿的降低。情感参与是完全中介变量。
3. 内容类型的调节作用(H3): 研究一发现内容类型是一个强大的调节变量。 * 交互效应显著: AI参与度与内容类型的交互项对情感参与有显著影响。具体而言,AI参与度对情感参与的负面影响在情感型内容中远比在理性型内容中强烈。 * 模式解读: 对于“人类创作”内容,情感型内容引发的情感参与远高于理性型内容。但随着AI介入,这一优势急剧萎缩。到了“AI生成”内容时,模式发生逆转:理性型内容的情感参与反而略高于情感型内容。 * 条件间接效应: 对于情感型内容,无论是AI增强还是AI生成,都通过情感参与显著降低了行为参与。对于理性型内容,仅AI生成内容有显著的负面间接效应,AI增强内容的效应则不显著。 结论: H3得到支持。用户对AI的抵触在涉及情感、自我表达的内容领域最为敏感,而在信息性、工具性的内容领域则相对宽容。
4. 披露时机的调节作用(H4): 研究二发现披露时机的调节作用具有条件性,仅部分支持H4。 * 交互效应: 披露时机显著调节了AI增强内容对情感参与的影响。晚期披露(先体验后告知)比早期披露更能缓解AI增强标签带来的情感参与下降。然而,对于AI生成内容,早期披露与晚期披露带来的负面影响没有显著差异。 * 条件间接效应: 在早期披露下,AI增强和AI生成内容均通过情感参与显著降低行为参与。在晚期披露下,仅AI生成内容仍有显著的负面间接效应,而AI增强内容的负面效应则变得不显著。 结论: 延迟披露AI信息是一种有效的缓解策略,但仅适用于人类仍保留创作主导权的“AI增强”内容。对于完全由AI生成的内容,无论何时披露,用户基于真实性缺失的负面评价都难以扭转。
结论: 本研究揭示了在社交媒体语境下,AI内容标签影响用户参与度的复杂机制。核心结论是:用户参与度的下降并非源于对AI技术的直接排斥,而是源于AI标签所暗示的“人类性”(Human-ness)和“真实性”(Authenticity)的减损,这首先削弱了用户的情感投入,继而导致行为参与意愿降低。这一过程受到内容类型和AI参与程度的共同调节:情感型内容对AI介入更敏感;而披露时机仅对AI增强内容有缓解作用。
理论与学术价值: 1. 深化算法厌恶理论: 将研究场景从传统的决策支持AI(如推荐算法)拓展到生成式AI内容消费,并提出了“人类-AI创作连续统”的概念,超越了二元划分。 2. 揭示心理机制: 明确了“情感参与”是关键的中介变量,连接了AI披露与用户行为,为理解人-AI互动提供了更精细的心理路径模型。 3. 整合矛盾发现: 通过区分AI增强与AI生成,调和了关于“披露时机”效应的矛盾文献,指出AI参与水平是决定披露策略有效性的关键边界条件。 4. 阐释任务特性调节: 通过情感型与理性型内容的对比,实证了“人类偏爱”和“算法厌恶”两种心理机制在不同任务领域的相对强度,丰富了任务依赖型算法厌恶的理论内涵。
实践与应用价值: 1. 对社交媒体平台: 在设计AI标签政策和用户界面时,需权衡合规透明与用户体验。可考虑对AI增强内容采用更柔和或延迟的披露方式,而对AI生成内容则需管理用户预期,或引导创作者进行混合发布。 2. 对内容创作者: 在创作情感导向、建立个人品牌的内容时,应谨慎使用全AI生成工具,优先采用AI增强模式以保留“人类痕迹”。对于信息发布、产品说明等理性内容,可以更自由地利用AI提升效率。 3. 对政策制定者与用户: 研究提醒,强制性标签是一把双刃剑,在提升透明度的同时可能带来意想不到的参与度下降。用户教育需跟上,帮助公众更 nuanced 地理解人机协作的不同模式。
本研究也坦诚地指出了若干局限,为未来研究指明了方向: 1. 测量局限: 主要依赖自我报告的行为意愿,而非真实行为数据。未来研究可结合实地实验或平台合作数据。 2. 媒介局限: 聚焦静态图片。未来需扩展到视频、文本等多媒体形式。 3. 情境简化: 实验剥离了评论、社交关系等真实社交线索,这些因素可能与AI标签产生交互影响。 4. 未探索的新问题: 研究提出了一个前瞻性问题:在自然浏览中,用户究竟是否会注意AI标签?标签的显著度、用户的注意力模式以及策略性忽视行为,是值得深入探讨的重要议题。
这项研究为理解生成式AI如何重塑社交媒体参与生态提供了扎实的实证基础和富有洞察力的理论框架。