分享自:

生成式AI幻象的制造逻辑及其超真实建构的文化后果

期刊:山东师范大学学报(社会科学版)DOI:10.16456/j.cnki.1001-5973.2024.05.010

生成式AI幻象的制造逻辑及其超真实建构的文化后果学术报告

作者及机构
本文由复旦大学新闻学院的经羽伦(博士研究生)与张殿元(教授、博士生导师)合作完成,发表于《山东师范大学学报(社会科学版)》2024年第5期(总第316期),系国家社科基金重点项目“新媒体文化对新时代中国创新型发展的理论支援和实践路径”(21AXW010)的阶段性成果。

研究背景与目标
研究聚焦生成式人工智能(Generative AI)的欺骗性特征及其文化影响,核心问题包括:
1. 学术分野:基于现代性与后现代性哲学对“真实”的争议(现代性主张理性确定的唯一真实,后现代性批判符号建构的“超真实”),探讨媒介技术如何通过欺骗性制造幻象。
2. 现实意义:以ChatGPT和Sora为例,分析生成式AI在“AI幻觉”(AI Hallucination)、模拟影像和深度伪造(Deepfake)等幻象形式上的突破,揭示其对社会认知与文化结构的潜在冲击。

核心观点与论据

1. 媒介的欺骗性:幻象制造的本体论基础
- 理论支持:德里达(Jacques Derrida)指出再现必然伴随虚构与错误;基特勒(Friedrich Kittler)强调电影技术通过剪辑、特效等物质基础制造“幻觉媒介”。
- 历史脉络:从口语时代的谎言、印刷时代的复制品“灵韵丧失”,到电子媒介(如广播剧《火星人入侵地球》引发的现实混淆)和数字媒介(算法黑箱导致的后真相),欺骗性始终是媒介的内在特质。
- 生成式AI的延续:图灵测试(Turing Test)本质是“欺骗游戏”,要求AI通过模仿人类通过测试,其设计逻辑预设了欺骗的必要性。

2. 生成式AI幻象的三种表现形式
- AI幻觉:大语言模型(LLM)基于概率生成看似合理但事实错误的文本(如ChatGPT的“一本正经胡说八道”),分为内在幻觉(与输入矛盾)和外在幻觉(无法验证的虚构内容)。
- 模拟影像:Sora通过补丁(Patches)技术生成逼真视频,但物理规律模拟存在断裂(如穿帮镜头),形成“无原型的真实”。
- 深度伪造:AI生成的视听内容欺骗性增强,加剧社会对真实性的信任危机。

3. 技术机制:自动化生产与交互界面的双重欺骗
- 软件系统
- 数据偏见:训练数据的错误或结构性偏见(如英文语料主导)导致输出偏差。
- 概率接龙:GPT模型通过自注意力机制(Self-attention)预测词句关联,但缺乏因果理解,仅呈现“表面合理”。
- 物理模拟局限:Sora的Diffusion Transformer架构虽能学习时空关系,却无法真正推理物理世界的连续性。
- 硬件界面:交互设计(如ChatGPT的用户友好界面)掩盖技术缺陷,使用户陷入“自主性幻象”(误以为完全掌控AI)。

4. 文化后果:超真实与分形社会的来临
- 鲍德里亚的预言:生成式AI建构的“超真实”(Hyperreality)世界,使符号真实彻底取代客观真实,对应“分形文化”(文化碎片化、真相弥散)。
- 后真相深化:个体依赖主观真实(Subjective Reality),理性判断让位于情感驱动,公共讨论的共识基础瓦解。
- 技术伦理风险:欺骗性潜能可能被恶意利用(如政治操纵、犯罪工具),需警惕“技术之恶”的激发。

研究价值与创新性
1. 理论贡献:提出“媒介的欺骗性”作为分析生成式AI的核心框架,连接媒介史与人工智能批判理论。
2. 方法论创新:结合技术分析(如大模型训练机制)与文化理论(如后现代哲学),揭示AI幻象的多层次逻辑。
3. 现实警示:呼吁建立AI伦理审查机制,强调技术开发中透明性与责任归属的重要性。

亮点与启示
- 重要发现:生成式AI的幻象并非技术缺陷,而是其基于概率与模拟的本质必然产物。
- 跨学科视角:融合传播学、哲学与计算机科学,为数字媒介研究提供新范式。
- 未来方向:需进一步探讨如何通过算法透明度(如可解释AI)和公众媒介素养应对幻象泛滥。

(注:全文严格遵循学术规范,术语如“超真实”“分形文化”等均保留理论原意,未添加非原文内容。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com