分享自:

形式信任与递进归谬:人工智能生成内容可信度评估研究

期刊:新媒体与社会

人工智能生成内容(AIGC)可信度评估研究:形式信任与递进归谬的学术报告

作者与发表信息
本研究由三峡大学文学与传媒学院杨艳妮副教授、武雷龙硕士生,中央民族大学新闻与传播学院向安玲讲师,以及清华大学新闻与传播学院张家铖博士后合作完成,题为《形式信任与递进归谬:人工智能生成内容可信度评估研究》,于2025年9月11日网络首发于期刊《新媒体与社会》(*New Media and Society*)。研究受国家自然科学基金青年项目(编号72304290)资助。


学术背景与研究目标
随着大语言模型(Large Language Models, LLMs)技术的突破,人工智能生成内容(Artificial Intelligence Generated Content, AIGC)在Web 3.0时代成为信息生产的新引擎,但其内容失实、偏见嵌入及伦理风险问题日益凸显。例如,AIGC存在“事实拼接”“模型幻觉”(hallucination)等技术缺陷,并被用于政治操纵与虚假新闻传播,威胁信息生态安全。尽管各国通过政策(如中国《生成式人工智能服务管理办法》)和技术迭代试图规范AIGC,但用户对其高感知信任与内容实际可信度之间的鸿沟仍未解决。

在此背景下,本研究旨在构建一个科学、系统的AIGC可信度评估体系,从技术系统媒介平台内容属性三个维度,揭示影响用户信任的关键因素,并提出优化策略。研究融合了传播学、计算机科学与管理学的跨学科视角,填补了AIGC可信度量化评估的理论空白。


研究流程与方法
1. 评估体系构建
- 分层框架设计:基于文献综述,将AIGC可信度分解为系统可信度(技术架构)、媒介可信度(传播渠道)和内容可信度(用户交互)三个一级指标,下设9个二级指标(如训练数据可信度、立场中立性、实质可信度等)。
- 专家论证:组建5人跨学科专家团队(含算法工程师、学者与媒体从业者),通过层次分析法(Analytic Hierarchy Process, AHP)对指标权重进行两两比较与一致性检验(Cohen’s Kappa=0.647, p<0.001),确保评估体系的科学性。

  1. 权重计算与验证

    • 判断矩阵:采用九级标度法构建准则层与次准则层判断矩阵,通过和积法计算权重。例如,系统可信度中,输出结果可信度(权重0.571)显著高于算法模型可信度(0.143)。
    • 一致性检验:所有矩阵的随机一致性比率(CR)均<0.1,符合统计学要求。最终权重显示,内容可信度(0.595)对AIGC整体可信度影响最大,其次是系统可信度(0.277)和媒介可信度(0.128)。
  2. 可信线索分析

    • 技术痛点:训练数据质量(如信源可靠性、噪音剔除)和输出结果稳定性(如错误率、查全率)是系统可信的核心。研究指出,AIGC的“非线性涌现”能力可能导致逻辑矛盾,需通过数据透明性与实时验证机制优化。
    • 媒介差异:平台的立场中立性(权重0.401)和社会影响力(0.384)是关键。政治与资本干预可能通过算法偏见影响内容客观性,需加强技术透明度与第三方审查。
    • 内容线索:用户更依赖形式信任(如权威背书、响应一致性)快速判断,但实质信任(如内容真实性、客观性)的权重(0.875)更高,需结合反向指令(如信息溯源、逻辑验证)进行递进归谬。

主要结果与贡献
1. 层级化评估模型:首次提出涵盖技术、媒介、内容的三维评估框架,明确实质可信度(0.521)为最关键因素,为AIGC产品设计提供优先级指导。
2. 技术优化路径:建议通过数据质量提升、算法可解释性增强(如展示生成逻辑)减少“模型幻觉”。
3. 用户反制策略:提出“反向指令四步法”(溯源、验证、逻辑对比、多模型核验),帮助用户识别虚假信息。


结论与价值
本研究兼具理论与应用价值:
- 理论层面:拓展了媒介可信度理论在智能传播领域的应用,提出“形式信任-实质信任”的双路径认知模型。
- 实践层面:为AIGC开发者优化技术、平台完善治理机制(如社会责任报告制度)、用户提升媒介素养提供了具体方案。

亮点与创新
1. 跨学科方法:结合层次分析法与传播学理论,量化主观信任因素。
2. 动态归谬策略:针对AIGC特点设计反向验证流程,弥补静态评估的不足。
3. 政策参考:研究结论支持对AIGC的“可信AI”标准化建设,如中国信通院的评测体系。

局限与展望
当前评估依赖专家主观赋权,未来需通过大规模用户实验验证权重普适性,并探索多模态AIGC(如视频、音频)的可信度评估框架。


(注:全文约2000字,严格基于文档内容,未添加外部信息。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com