分享自:

人工智能辅助内容审核对个人与群体影响的系统综述

期刊:Human-Machine CommunicationDOI:10.30658/hmc.9.10

本文是对AI辅助内容审核(AI-assisted content moderation)效果进行系统性综述(systematic review)的研究论文。主要作者为Zehui Yu、Lukas Otto、Dennis Assenmacher和Claudia Wagner,他们分别来自德国的Leibniz Institute for the Social Sciences (GESIS)、RWTH Aachen University以及奥地利的Complexity Science Hub。该综述论文于2024年发表于学术期刊《Human-Machine Communication》第9卷。

论文主题与核心目标 本文的主题是系统地回顾和梳理关于AI辅助内容审核如何影响个体和群体的实验性证据。其核心目标在于解决当前研究领域的三个关键问题:首先,厘清是哪些学科贡献了AI辅助内容审核的实验研究,以及这些研究如何对AI辅助内容审核进行概念化定义。其次,总结在相关实验中,研究者们操纵了哪些自变量来研究AI辅助审核的效果。最后,梳理迄今为止研究者们已经调查了AI辅助内容审核的哪些具体效果或后果。

核心论点与论证展开 论文的核心论点是:当前关于AI辅助内容审核效果的研究存在显著局限,主要体现在过度聚焦于个体层面效果和限制性审核技术,缺乏对群体层面影响以及更具建设性的AI审核潜力的探索。作者们提出了一个渐进式的AI辅助内容审核概念框架,以推动未来研究超越现有的二元化视角。

论点一:现有研究的概念化存在不一致和局限性,需要一个新的、渐进式的概念框架。 作者指出,现有文献中对“AI辅助内容审核”缺乏统一的定义,使用了诸如“自动化内容审核”、“AI审核”、“机器审核”等多种术语。这种概念上的不一致使得不同研究结果之间难以进行比较和整合。更重要的是,现有的定义大多是二元化的(例如,一个技术要么是、要么不是“沟通性AI”),这忽略了人机协作在实际应用中的渐进性(gradual nature)。为了克服这些局限,本文在综合“AI中介沟通”(AI-mediated communication)和“沟通性AI”(communicative AI)等概念的基础上,结合Grimmelmann(2015)对内容审核的定义,提出了一个新的、渐进式的定义。该定义强调,AI辅助内容审核是基于多种形式的自动化技术,其核心目的是治理社区参与结构以促进合作和防止滥用,它嵌入在数字基础设施中并与人类审核实践交织。审核过程中自动化治理机制的程度(extent)、时机(timing)和类型(type) 共同定义了AI辅助的程度。作者假设,人们归因于AI审核员的自主性水平会随着AI辅助程度的变化而变化,并且随着对AI自主性归因的增加,人类自身的自主性会降低。这一框架旨在帮助拓宽未来研究的范围,设计新颖的实验,并更好地整合不同实验的结果。

论点二:现有实验研究主要集中在个体层面的效果,并过度关注限制性审核技术和不同审核主体的比较,而忽略了群体层面和建设性技术的探索。 通过对16篇符合筛选标准的实验研究文献进行系统性分析,作者得出以下发现来支持此论点: 1. 学科分布:实验研究主要来自人机交互(HCI)和传播学领域,政治学和心理学领域的贡献相对较少。相关研究在2020年之后才大量出现,且半数发表于2023年,表明这是一个新兴且快速发展的领域。 2. 自变量(Independent Variables):研究者主要从两个维度操纵自变量。一是审核技术,例如删除内容、标记内容、提供智能回复建议等。论文指出,绝大多数被研究的审核技术属于限制性(restrictive) 技术(即删除、过滤有害内容),仅有极少数研究关注建设性(constructive) 技术(例如,总结讨论、调整内容语气、促进反思等能提升讨论质量的技术)。二是审核主体(agent),例如比较人类、AI、人机协作等不同审核主体带来的效果差异。然而,很少有研究系统地探索人机协作中不同程度的自动化水平所带来的影响,这部分是由于概念化的不一致所致。 3. 因变量(Dependent Variables):研究者关注的后果主要集中在个体层面,可分为感知(perceptions)行为(behaviors) 两大类。 * 感知方面:包括用户的情感反馈(如挫折感、积极情绪)、自我认知(如对对话质量的感知、自信心)以及对审核质量的反思(如对审核决策/主体/内容的可信度、公平性、准确性、问责制等的感知)。例如,有研究发现AI审核比人类审核更容易引发用户的挫折感;而总体而言,AI的介入并未显著改变用户对审核决策公平性或可信度的感知。 * 行为方面:包括用户在被审核后的实际行为或行为意图,例如,使用更积极的语言、提高沟通频率、更愿意遵守社区规则、未来使用AI服务的意愿、以及举报骚扰内容的可能性等。一些研究表明,AI辅助审核能带来积极的行为后果,如促进用户使用更积极的语言。 然而,几乎没有研究考察AI辅助审核对群体层面变量的影响,例如讨论质量、两极化、共识形成、少数群体保护等。这些更高层次的、规范性的结果恰恰是内容审核可能追求的终极目标,但当前研究对此存在明显空白。

论点三:未来的研究议程应转向探索建设性审核技术和群体层面效果,并关注不同自动化程度的影响以及可能产生的负面效应。 基于上述发现,作者提出了未来研究的几个关键方向: 1. 从限制性技术转向建设性技术:当前研究和平台实践都过度聚焦于“删除有害内容”。AI的潜力在于能够规模化地实现以往人类审核员难以实施的建设性审核技术(例如,在内容发布前帮助用户优化措辞、构建讨论框架、总结争议点等)。这些技术不仅可能改善个体体验,更能促进健康的群体讨论生态。 2. 从个体层面转向群体层面:未来的研究需要超越对个体用户感知和行为的测量,开始探索AI辅助审核对群体、讨论或网络层面的影响。例如,研究审核如何影响群体两极化的程度、讨论的审议质量、观点的多样性以及少数群体的声音是否能被平等倾听。 3. 采用渐进式视角探索自动化程度:未来的实验设计应基于本文提出的渐进式概念框架,探索审核过程中自动化程度、时机和任务类型的变化如何系统地影响个体和群体的感知与行为,以及人们如何归因不同自动化水平下的主体自主性。 4. 关注潜在风险与公平性问题:文章也警示了AI辅助内容审核,特别是建设性审核技术可能带来的风险。例如,事前的内容过滤和修改可能导致讨论空间更加碎片化;AI的“算法单一文化”(algorithmic monoculture)可能导致不同平台产生同质化的审核结果,系统性边缘化特定群体;在准确性与公平性之间存在固有权衡,难以同时优化。因此,未来研究必须关注AI辅助审核如何影响不同群体,尤其是边缘化和弱势群体,并探讨当AI审核出错时,个体和群体的应对策略以及如何重新获得能动性。

论文的意义与价值 本文具有重要的学术价值和实践指导意义。在学术上,它首次系统性地回顾和整合了AI辅助内容审核效果领域的实验研究,清晰地指出了当前研究的局限和空白(如概念不一致、忽视群体层面和建设性技术),并提出了一个创新的、渐进式的概念框架,为未来研究提供了清晰的理论基础和路线图。在实践上,它为社交媒体平台、政策制定者和AI开发者指明了方向:不应仅将AI视为自动化删除工具,而应探索其作为促进健康、包容、高质量在线讨论的建设性力量的潜力。同时,论文对算法公平性、少数群体保护等风险的强调,也提醒我们在发展和部署相关技术时必须保持审慎,确保技术服务于增进公共福祉的规范性目标。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com