分享自:

生成式人工智能对社交媒体影响的实验研究

期刊:Scientific ReportsDOI:10.1038/s41598-026-40110-8

生成式人工智能(Generative AI)对社交媒体影响的实验研究

一、 研究作者、机构与发表信息

本研究由来自丹麦哥本哈根信息技术大学(IT University of Copenhagen)数据科学系的Anders Giovanni Møller、美国密歇根大学信息学院(School of Information)、复杂系统研究中心(Center for the Study of Complex Systems)以及计算机科学与工程系的Daniel M. Romero与David Jurgens,以及哥本哈根信息技术大学与人工智能先锋中心(Pioneer Centre for AI)的Luca Maria Aiello共同完成。该研究于2026年发表于学术期刊《科学报告》(Scientific Reports)。

二、 研究背景与目标

本研究属于计算社会科学、人机交互与传播学交叉领域。随着ChatGPT等生成式人工智能工具被迅速整合到社交媒体平台中,它们正在重塑用户创造和参与内容的方式。然而,这些工具对用户行为和体验的影响,尤其是在两个关键维度上,仍缺乏充分研究:(1) AI工具如何影响社交媒体环境中内容生产者的行为;(2) 用户如何感知AI辅助生成的内容。此前研究虽指出了AI辅助沟通在提升人类创造力、增加用户参与度和促进在线讨论包容性方面的潜力,但也担忧其可能导致内容质量下降、错误信息泛滥和用户互动真实性减损等负面后果。因此,亟需在真实、平台集成的场景下进行实证研究,以量化AI辅助如何重塑在线参与动态、内容质量和用户感知。

本研究的核心目标即填补这一空白。它旨在通过一项在模拟真实社交媒体平台上进行的受控实验,从互补的两个视角探究AI辅助内容创作的影响:首先,AI助手如何影响内容生产者的体验;其次,这些干预如何塑造内容消费者对内容的感知。研究旨在直接评估AI助手如何改变社交媒体上生产者与消费者双方的经验。

三、 详细工作流程与方法

本研究采用了一项精心设计的受控实验,其工作流程可概括为以下几个主要步骤:

1. 实验平台设计与搭建: 研究团队构建了一个自定义的在线讨论平台,旨在模拟类似Reddit论坛的典型社交媒体聊天室环境。该平台基于Empirica框架开发,具备线程化对话和轻量级用户交互功能。平台界面清晰,包含主讨论区、评论模态框,并集成了后续所述的各类AI工具接口。平台支持用户发布评论和使用七种表情符号(点赞、喜爱、反对、愤怒、惊讶、悲伤、有趣)进行互动。

2. 参与者招募与分组: 研究通过Prolific平台招募了680名具有美国人口统计学代表性的参与者。参与者被随机分配到5人一组的小型讨论组中。每个小组再被随机分配至五种实验条件之一:一个控制组(无任何AI辅助)和四个处理组,每个处理组配备一种独特的AI干预工具。这四种AI工具分别是:(1) 开放式聊天助手(Chat);(2) AI生成的话题启动器(Conversation Starter);(3) 针对评论草稿的AI反馈(Feedback);(4) AI生成的回复建议(Suggestions)。这四种工具的选择系统性地涵盖了人机交互的两个维度:主动性(反应式 vs. 主动式)和任务导向(生成新内容 vs. 优化用户创作内容)。

3. 实验流程: 每位参与者需完成一个结构化的实验流程: - 事前问卷:提供知情同意后,参与者填写前测问卷,提供人口统计学信息,并评估其对社交媒体和AI的态度。 - 平台引导:参与者通过说明和演示视频了解平台操作和任务要求。处理组的参与者会额外收到关于其组内特定AI工具的使用指导。 - 讨论环节:核心部分。每个小组依次讨论三个随机排序的话题,每个话题限时10分钟。三个话题设计覆盖不同复杂性和社会敏感性:轻松话题(猫 vs. 狗)、科学话题(燕麦的健康益处)和政治话题(全民基本收入)。这种设计旨在评估AI干预效果在不同话题类型上的异质性。在讨论过程中,平台会详细记录用户行为数据,包括发布的评论、给出的反应表情以及AI工具的使用情况。 - 事后问卷:讨论结束后,参与者完成后测问卷,评估其平台体验、对内容和组内其他参与者的评价。处理组参与者还需评估所用AI工具的有用性。问卷中重复了前测中关于AI态度的问题,以量化态度变化。 - 补偿:参与者最终获得相应报酬。

4. 数据收集与测量指标: 研究从两个角度收集和分析数据: - 生产者角度:测量用户参与度和内容生产指标,如评论数量、评论平均长度、参与平等性(使用基于每轮每用户评论比例的归一化香农熵计算)、收到回复的可能性等。 - 消费者角度:测量感知指标,主要通过后测问卷获取,包括对其他参与者评论的信息性和质量评分、对自己收到的回复的评分,以及通过开放反馈收集的定性评价。

5. AI工具的实现与使用分析: 所有AI工具均由GPT-4o模型驱动,并针对每种干预方式定制了提示词。研究还开发了一套结构化的分类流程来分析AI工具的使用模式: - 对于聊天工具,使用GPT-4o对用户提交的提示进行分类(如随意查询、事实核查、参与协助、政治讨论等),并按话题分析使用模式差异。 - 对于话题启动器,分析用户提交的评论在多大程度上受到AI建议的启发,并对建议内容进行分类。 - 对于反馈工具,通过比较用户收到AI反馈前后的评论草稿,使用GPT-4o对修订类型进行分类(如结构性修改、信息更新、论证调整等)。 - 对于建议工具,直接记录用户选择的建议立场(同意、中立、反对),并分析其在不同话题下的分布。

6. 数据分析方法: 采用非参数自举法估计组间均值的置信区间。使用置换检验比较有序数据(如李克特量表)的组间差异,使用双尾t检验比较连续变量。此外,还进行了回归分析,以评估实验条件、讨论动态(如话题、评论深度、活跃用户数)和人口统计学特征对关键结果变量(如收到回复的似然性、态度变化、回复评分)的影响。

四、 主要研究结果

实验揭示了AI辅助在社交媒体讨论中复杂且具有双重性的影响。

1. 生产者角度:提升参与度与内容产量,但效果因工具而异。 - 参与意愿与内容产量:与对照组相比,使用聊天和建议工具的参与者报告称,AI会增加他们参与在线讨论的意愿。所有AI辅助工具都显著增加了用户评论的平均长度,表明用户产出更多文字内容。 - 参与平等性:话题启动器干预显著提高了参与平等性,意味着讨论参与更为均衡。 - 互动促进:回归分析显示,只有话题启动器显著增加了评论获得回复的可能性。这与其设计初衷——降低发起互动的门槛——相符,因为话题启动器通常在讨论初期使用,能获得更高可见性。其他工具虽显示出积极信号,但未达统计显著性。

2. 消费者角度:感知质量普遍下降,真实性受质疑。 - 内容质量感知:与对照组相比,在聊天话题启动器条件下,参与者认为其他参与者的评论信息性和质量更低。 - 回复质量评价:除了建议工具外,其他所有AI处理组中,用户对自己收到的回复的评分都显著低于对照组。值得注意的是,建议工具是唯一一个在回复评分上显示出微弱正向显著性的工具。 - 情绪反应:所有AI处理组都显著增加了“反对”反应的数量,这与观察到的更低质量和信息性评分一致。同时,建议工具是唯一引发更多“喜爱”反应的干预。 - 用户反馈:开放反馈支持了上述模式。参与者普遍描述AI辅助条件下的内容显得“机械化”、“通用”和“缺乏个性”。

3. AI工具使用模式的深度分析: - 聊天工具:采用率最高(94.4%)。使用模式随话题高度自适应:在轻松的猫狗话题中,多用于随意查询;在科学的燕麦话题中,多用于事实核查;在政治话题中,则多用于探讨观点和论证。这种灵活性促进了参与,但也可能导致冗长的评论,从而影响感知质量。 - 话题启动器:71.7%的参与者至少使用一次。用户经常偏离AI生成的建议(27.5%的评论完全无关),表明AI推荐时常与用户的交流意图不匹配。 - 反馈工具:采用率为74.8%。用户使用模式与话题重要性紧密相关。在轻松的猫狗讨论中,用户通常不做修改;在科学话题中,倾向于进行结构性或信息性修订;在政治话题中,则更多用于强化论证。这表明用户在需要可信度和说服力的高利害语境下更重视AI的反馈。 - 建议工具:采用率为64.3%。用户总体上明显偏好同意立场的建议(48.6%),其次是中立和反对。这种对“同意”的偏好在高利害或敏感话题(燕麦、政治)中更为强烈,表明用户在争议性讨论中倾向于避免对立立场。

4. 用户对AI的期待:支持性与个性化需求。 参与者肯定AI在产生想法、澄清信息和启动互动方面的价值,特别是在“词穷”时。但同时,他们强烈批评AI生成的内容缺乏真实性和个性,并明确表达了对更个性化AI的渴望,希望AI能适应他们的个人风格和交流语境。

五、 结论、意义与设计原则

本研究结论的核心在于揭示了生成式AI在社交媒体中应用的双重性:一方面,AI工具可以降低认知门槛、扩大参与、增加内容产量;但另一方面,它们也可能污染对话质量,生成被视为低质量、缺乏真实性的“语义垃圾”,甚至对未使用AI的用户的后续对话产生负面溢出效应。没有一种单一的工具能够同时提升生产者和消费者双方的体验,突显了其中复杂的权衡关系。

基于研究发现,研究团队为社交媒体平台、政策制定者和相关利益方提出了四项旨在引导生成式AI伦理且有效整合的设计原则:

  1. 透明披露与自主选用:AI工具应作为可选功能提供。对于直接复制AI生成的内容,应进行明确标注。而对于利用AI获取灵感或修改草稿等更精细的使用,则可能无需强制标注。平台政策应支持用户自主权,以保持真实性感知和信任。
  2. 个性化:AI系统应学习和适应用户的个人风格、语调和交流意图,提供更具个人特色、相关性和真实性的输出,以提升互动价值。
  3. 情境感知与灵活性:AI支持必须响应讨论的语境(话题、用户意图)。系统应根据话题领域和个人偏好调整语气、立场和正式程度,以保持内容的真实性和有用性。平台设计者应促进对AI系统内在偏见的认识与透明化。
  4. 熟悉且用户友好的界面:直观、低摩擦、无缝嵌入平台工作流的界面对于促进AI工具的采纳和使用至关重要。易用性是工具发挥支持作用而非造成干扰的关键。

六、 研究亮点

  1. 开创性的实证研究:这是首批在模拟真实的社交媒体环境中,通过受控实验直接、系统比较多种AI辅助工具对在线讨论生产端和消费端影响的研究之一,填补了该领域实证证据的稀缺。
  2. 双重性视角与复杂发现:研究并非给出单向的乐观或悲观结论,而是深刻揭示了AI在提升参与量的同时可能损害对话质的复杂双重效应,强调了在设计和部署时需权衡的利弊。
  3. 精细化的工具使用分析:超越了简单的“用与不用”,深入到不同AI工具在不同话题情境下的具体使用模式、用户适应策略及其背后的动机,为理解人-AI协作的微观动态提供了宝贵洞察。
  4. 基于证据的设计原则:提出的四项设计原则并非泛泛而谈,而是紧密扎根于实验发现(如用户对个性化的渴望、话题间使用模式的差异、界面采纳率的不同等),为产业实践和政策制定提供了具体、可操作的指导。
  5. 严谨的实验设计:采用美国代表性样本、随机分组、多话题控制、前/后测问卷结合行为日志的方法,确保了研究结果具有较高的内部效度和一定的外部效度。

七、 其他有价值内容

研究团队在论文最后展望了未来研究方向,包括:需要更大样本以更准确评估人口统计学差异的调节作用;应进行纵向研究以考察长期使用如何改变参与模式、认知负荷和真实性感知;应将实验扩展到其他社交媒体平台以检验生态效度;强调了对社交媒体AI工具进行持续审计的必要性,包括对其如何随时间影响集体行为、如何设计护栏防止错误信息和边缘化,以及如何确保透明度和用户控制。研究指出,在线民主沟通的未来不仅取决于AI工具的能力,更取决于它们如何被深思熟虑地嵌入数字平台的社会交流生态系统中,这需要哲学、法学、社会科学和计算机科学等多学科的协作。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com