本文属于类型c:一篇探讨生成式人工智能(GAI)虚假信息风险与治理路径的理论研究论文,发表于《新媒体研究》2025年第13期,作者为鲁东大学新闻与传播学院王欣然。以下是核心内容提炼:
一、研究背景与核心问题
随着生成式人工智能(如Sora、DeepSeek)的爆发式应用,AI生成内容(AIGC)的拟真度已达到“超真实”(Hyperreality)水平,模糊了真实与虚假的边界。鲍德里亚的“超真实”理论指出,拟像(Simulacra)通过符号化重构逐渐取代真实,形成虚实共生的新秩序。这一现象引发虚假信息泛滥、新闻信任危机及信息污染等多元风险,急需治理路径。
二、生成式人工智能虚假信息的产生逻辑
真实解构:符号化与事实断裂
AI训练过程中,原始数据被解构为符号片段,而算法重构可能导致与现实断裂。例如:
- 训练数据被错误或偏见污染(如未核实的互联网信息),导致模型输出偏离事实。
- 大模型(如GPT类)仅预测文本连贯性,缺乏对真实因果的理解,加剧认知表象与客观事实的断裂。
超越真实:拟像的自主增殖
- AI生成内容脱离现实参照,通过数据裂变形成“自我指涉”的符号链(如深度伪造视频)。
- 虚假信息以指数级速度传播,挤压真实信息空间(如2023年“特朗普被捕”AI合成图片事件)。
虚实共生:“超真实”秩序确立
鲍德里亚提出的拟像四阶段理论揭示:AI内容已进入第三阶段(超真实拟像)乃至第四阶段(纯粹拟像),用户陷入“真实性困境”。
三、多元风险分析
信任危机
- 案例:2025年“80后死亡率5.2%”的AI生成虚假数据,伪装成人口普查结果传播,公众难以追溯源头。
- 机制:深度伪造技术(如Sora视频)破坏新闻真实性核查的基础。
认知幻觉
- 大模型“幻觉”(Hallucination)现象导致用户将错误信息误认为权威(如AI生成的合理但虚构文本)。
- 彭兰指出,过度依赖AI会削弱人类独立思考和批判能力。
信息污染与隐形操控
- 社交机器人自动化生产虚假新闻(如“响铃猫”网站伪造事件),扰乱信息传播秩序。
- 鲍德里亚批判的“问/答模型”掩盖了技术对内容的隐形控制。
四、治理路径
技术层面:区块链溯源
- 利用哈希算法和分布式账本追踪信息源头,保障数据不可篡改(如为AI生成内容添加数字指纹)。
机制层面:敏捷治理(Agile Governance)
- 突破传统事后治理模式,强调风险预判与多元主体协同(政府、企业、公众)。
法规层面:责任明确化
- 借鉴中国《生成式人工智能服务管理暂行办法》(2023)及欧盟、韩国法规,要求技术备案与安全评估。
- 推动“价值对齐”(Value Alignment),确保AI行为符合人类伦理。
五、研究价值与创新点
- 理论贡献:首次将鲍德里亚“超真实”理论系统应用于AI虚假信息分析,揭示了符号化、拟像增殖与虚实秩序重构的深层逻辑。
- 实践意义:提出“技术-机制-法规”三维治理框架,为应对AIGC风险提供操作性方案。
- 案例实证:结合Sora、DeepSeek等前沿技术事件,凸显研究的时效性与现实针对性。
六、结语
论文警示“超真实”陷阱下信息生态的脆弱性,呼吁通过跨学科协作(传播学、计算机科学、法学)构建可持续治理体系,推动生成式人工智能“向善”发展。
(注:全文约1500字,核心术语均保留英文原文并在首次出现时标注中文,如“超真实(Hyperreality)”“敏捷治理(Agile Governance)”等。)