这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
AI与真实性:年轻人对AI生成视频内容信息可信度的评估实践
作者及机构
本研究由芬兰奥卢大学人文学院的Yucong Lao和Noora Hirvonen,以及瑞典隆德大学技术与社会科学系的Stefan Larsson共同完成,发表于2025年的《Journal of Information Science》(第1-15页)。
研究领域与背景知识
研究聚焦于媒体与信息素养(Media and Information Literacy, MIL)领域,探讨生成式人工智能(AI)技术(如深度伪造(deepfake))对信息可信度评估的挑战。近年来,AI生成媒体(AI-Generated Media, AGM)技术快速发展,能够生成高度逼真的视频、音频和文本内容。然而,这类技术也加剧了虚假信息的传播风险,尤其是对社交媒体活跃用户——年轻人的影响。
研究动机与目标
研究旨在回答两个核心问题:
1. RQ1:年轻人如何验证AI生成的深度伪造视频的真实性?
2. RQ2:年轻人如何理解和反思这类视频的潜在影响?
研究选择芬兰作为背景,因其高媒体素养水平、高互联网普及率(97%)以及对青少年媒体素养教育的重视,使其成为研究MIL实践的理想案例。
研究设计
研究采用定性方法,结合访谈与实验。实验部分向参与者展示两段AI生成的视频,观察其验证真实性的策略,并收集其对视频影响的反思。
研究对象与样本
- 参与者:20名芬兰九年级学生(14-15岁),通过学校实习项目招募。
- 视频选择:从GitHub平台DeepFaceLab项目中选取两段视频:
1. 政治演讲类:朝鲜领导人金正恩的英文演讲(明显不符合其真实行为)。
2. 科幻场景类:马克·扎克伯格在太空船中讨论虚假新闻(虚构场景)。
数据收集与分析
1. 访谈与实验:
- 半结构化访谈分为六个主题,本研究聚焦“合成媒体/AI生成内容”部分。
- 参与者观看视频后,被询问其真实性判断依据及对视频的反思。
2. 数据分析:
- 转录访谈内容,进行归纳编码,提取出七个类别,最终形成两大主题:
- 真实性验证策略(图像、声音、叙事、直觉)。
- 对虚假信息的感知(技术、后果、相关人群)。
伦理考量
研究遵循芬兰国家研究诚信委员会的伦理指南,确保参与者匿名,并获得其本人及监护人的书面同意。
1. 真实性验证策略
- 图像:超过半数参与者通过视频的视觉特征(如面部表情、身体动作、背景)判断真实性。例如,金正恩视频中“不眨眼”的异常被多次提及。
- 声音:约25%的参与者关注语音的“不自然性”,如金正恩的英语流利度与真实情况不符。
- 叙事:参与者将视频内容与既有知识对比。例如,金正恩批判民主的演讲被视为“不可能发生”。
- 直觉:少数参与者无法明确解释判断依据,仅凭“感觉”认为视频不真实。
2. 对虚假信息的感知
- 技术层面:多数参与者认为视频质量“逼真”,但也指出技术尚未完美(如口型不同步)。
- 后果层面:
- 安全风险:担忧身份盗窃(如“人脸替换”技术可能被滥用)。
- 民主威胁:认为深度伪造可能被用于政治宣传,加剧虚假信息传播。
- 相关人群:参与者特别关注缺乏AI知识的群体(如儿童或老年人)可能被误导。
科学价值
1. 填补研究空白:首次从年轻人视角系统分析其对AGM的MIL实践,补充了现有研究中以成人为对象的局限性。
2. 方法论创新:结合实验与访谈,揭示年轻人验证真实性的具体策略(如依赖“图像”而非“来源”)。
应用价值
- 教育领域:为媒体素养教育提供针对性建议,例如加强青少年对AI技术的批判性认知。
- 政策制定:呼吁监管AI生成内容,尤其是针对社交媒体的传播风险。
其他有价值内容
研究还指出,AI生成内容的“真实性”是动态建构的,例如政治类视频的真实性被理解为“事实性”,而科幻类视频则关注“技术虚构性”。这一发现对后续研究如何定义“真实性”具有启发意义。
(报告总字数:约1800字)