人工智能生成内容(AIGC)可信度评估研究:形式信任与递进归谬的学术报告
作者与发表信息
本研究由三峡大学文学与传媒学院杨艳妮副教授、武雷龙硕士生,中央民族大学新闻与传播学院向安玲讲师,以及清华大学新闻与传播学院张家铖博士后合作完成,题为《形式信任与递进归谬:人工智能生成内容可信度评估研究》,于2025年9月11日网络首发于期刊《新媒体与社会》(*New Media and Society*)。研究受国家自然科学基金青年项目(编号72304290)资助。
学术背景与研究目标
随着大语言模型(Large Language Models, LLMs)技术的突破,人工智能生成内容(Artificial Intelligence Generated Content, AIGC)在Web 3.0时代成为信息生产的新引擎,但其内容失实、偏见嵌入及伦理风险问题日益凸显。例如,AIGC存在“事实拼接”“模型幻觉”(hallucination)等技术缺陷,并被用于政治操纵与虚假新闻传播,威胁信息生态安全。尽管各国通过政策(如中国《生成式人工智能服务管理办法》)和技术迭代试图规范AIGC,但用户对其高感知信任与内容实际可信度之间的鸿沟仍未解决。
在此背景下,本研究旨在构建一个科学、系统的AIGC可信度评估体系,从技术系统、媒介平台和内容属性三个维度,揭示影响用户信任的关键因素,并提出优化策略。研究融合了传播学、计算机科学与管理学的跨学科视角,填补了AIGC可信度量化评估的理论空白。
研究流程与方法
1. 评估体系构建
- 分层框架设计:基于文献综述,将AIGC可信度分解为系统可信度(技术架构)、媒介可信度(传播渠道)和内容可信度(用户交互)三个一级指标,下设9个二级指标(如训练数据可信度、立场中立性、实质可信度等)。
- 专家论证:组建5人跨学科专家团队(含算法工程师、学者与媒体从业者),通过层次分析法(Analytic Hierarchy Process, AHP)对指标权重进行两两比较与一致性检验(Cohen’s Kappa=0.647, p<0.001),确保评估体系的科学性。
权重计算与验证
可信线索分析
主要结果与贡献
1. 层级化评估模型:首次提出涵盖技术、媒介、内容的三维评估框架,明确实质可信度(0.521)为最关键因素,为AIGC产品设计提供优先级指导。
2. 技术优化路径:建议通过数据质量提升、算法可解释性增强(如展示生成逻辑)减少“模型幻觉”。
3. 用户反制策略:提出“反向指令四步法”(溯源、验证、逻辑对比、多模型核验),帮助用户识别虚假信息。
结论与价值
本研究兼具理论与应用价值:
- 理论层面:拓展了媒介可信度理论在智能传播领域的应用,提出“形式信任-实质信任”的双路径认知模型。
- 实践层面:为AIGC开发者优化技术、平台完善治理机制(如社会责任报告制度)、用户提升媒介素养提供了具体方案。
亮点与创新
1. 跨学科方法:结合层次分析法与传播学理论,量化主观信任因素。
2. 动态归谬策略:针对AIGC特点设计反向验证流程,弥补静态评估的不足。
3. 政策参考:研究结论支持对AIGC的“可信AI”标准化建设,如中国信通院的评测体系。
局限与展望
当前评估依赖专家主观赋权,未来需通过大规模用户实验验证权重普适性,并探索多模态AIGC(如视频、音频)的可信度评估框架。
(注:全文约2000字,严格基于文档内容,未添加外部信息。)