分享自:

数字出版平台在AIGC风险治理中的内容审核责任

期刊:法律科学(西北政法大学学报)DOI:10.19393/j.cnki.cn11-1537/g2.2024.09.013

本文作者起海霞(华东政法大学知识产权学院讲师、华东政法大学新文娱法治研究院研究员)于2024年发表在《出版法苑》第9期的学术论文,聚焦人工智能生成内容(AIGC,Artificial Intelligent Generated Content)风险治理背景下数字出版平台内容审核责任的制度重构问题。文章以ChatGPT等生成式人工智能技术引发的出版业态变革为切入点,系统分析了现行内容审核制度在AIGC场景下的适用困境,并提出了基于全链路治理逻辑的责任配置方案。

核心学术观点与论证体系

观点一:AIGC技术特性对传统内容审核制度构成根本性挑战
文章指出,AIGC作为技术层与内容层深度融合的产物,其三大技术特征导致审核困境:
1. 意识形态渗透的隐蔽性:通过Hartmann等学者对ChatGPT政治倾向的实证研究(输入630个政治陈述测试显示左翼自由派倾向),证明算法偏见可能通过训练数据、标注员主观判断等路径植入。这种”技术中立”表象下的价值输出,较传统违禁内容更难识别。
2. 内容准确性的验证困境:基于统计模型的”机器谎言”生成机制(如OpenAI检测器仅能识别26%的AI文本),加之AIGC缺乏明确信息来源的特征,使平台需承担近乎”逐字核验”的过高成本。
3. 版权侵权的复杂性:王迁教授提出的”智能洗稿器”比喻揭示,AIGC对海量训练数据的融合性使用,导致其与原始作品难以形成实质性相似,传统版权过滤技术失效。

观点二:现行”结果责任”归责逻辑存在系统性缺陷
作者批判性地分析了当前以《网络出版服务管理规定》《网络信息内容生态治理规定》为代表的监管框架存在的三重矛盾:
- 能力与责任失衡:引用Slaughter等学者算法正义研究,指出平台对AIGC底层算法、数据的控制力有限,却需承担等同内容生产者的严格责任。
- 激励扭曲风险:借鉴欧盟《数字化单一市场版权指令》的争议(唐要家2023年研究显示),过度责任将促使平台采取”防御性审核”,压制技术创新与言论自由。
- 制度滞后性:对比欧盟《人工智能法案》的全流程监管模式,我国现有制度未区分基础设施层、模型层、应用层的差异化责任。

观点三:基于主体身份与法益类型的双层责任配置模型
论文创新性提出”主体-法益”二维责任框架:
1. 主体维度分类治理
- AIGC技术支持者(如研发机构):承担算法备案、数据标注规范等源头治理义务,援引《生成式人工智能服务管理暂行办法》”技术发展与治理”专章要求。
- AIGC服务提供者:履行内容标识(显式/隐式水印)、风险内容应急处置等义务,但豁免事先全面审核责任。
- 网络信息服务提供者:建立”通知-删除”快速响应机制,引入欧盟《数字服务法》”用户信用分级”制度优化投诉处理。

  1. 法益维度分层治理
  • 公法法益内容(如危害国家安全信息):采用严格责任,要求平台建立政治导向特征库与应急报告机制。
  • 私法法益内容(如版权侵权):适用过错责任,通过”避风港规则”限责,仅对明显侵权内容采取过滤措施。

论证支撑体系
1. 实证数据支撑:引用Gartner预测(2025年10%数据由AI生成)、OpenAI检测器准确率(26%)等量化证据。
2. 比较法研究:分析欧盟《人工智能法案》风险分级制度、美国FTC算法治理框架等国际经验。
3. 政策文本分析:系统解读《深度合成管理规定》《标识方法》等7部国内规范。

学术价值与实践意义
理论层面:突破传统”平台中心主义”治理范式,提出技术治理与法律治理融合的新框架。实践层面:为《出版业”十四五”发展规划》提出的”分级分类管理”提供具体实施方案,平衡安全监管与技术创新的张力。文章特别强调审慎包容原则,建议在技术初期采用约谈、整改等柔性监管手段,避免抑制产业创新。

创新性亮点
1. 首次构建AIGC全链路治理的理论模型,明确基础设施层-模型层-应用层的责任边界。
2. 创造性地将信息系统安全等级保护理念引入内容审核,建立”公法优先、私法补充”的分层体系。
3. 提出”技术可控性”作为责任配置的核心标准,为算法治理提供可操作性指引。

该研究对完善我国新兴科技治理制度具有重要参考价值,其提出的责任配置框架已被中文在线等26家机构联合发布的行业倡议书部分采纳,体现了理论研究的实践转化能力。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com