分享自:

量子多模态融合的社交媒体假新闻检测模型

期刊:information fusionDOI:10.1016/j.inffus.2023.102172

该文档属于类型a:报告一项原创性研究的科学论文。


量子多模态融合的社交媒体假新闻检测模型:QMFND
作者与机构
本研究由Zhiguo Qu(南京信息工程大学数字取证教育部工程研究中心、计算机学院)、Yunyi Meng(南京信息工程大学计算机学院)、Ghulam Muhammad(沙特国王大学计算机工程系)、Prayag Tiwari(瑞典哈尔姆斯塔德大学信息技术学院)合作完成,发表于2024年的期刊《Information Fusion》(卷104,页码102172)。

学术背景
研究领域聚焦于量子机器学习(Quantum Machine Learning, QML)与多模态信息融合(Multimodal Fusion)的交叉应用。社交媒体的爆炸式增长使假新闻传播成为全球性问题,传统基于机器学习(如CNN、GNN)的检测方法因数据量大、时效性高面临挑战。量子计算因其并行计算和高效处理高维数据的能力,为假新闻检测提供了新思路。本研究提出量子多模态融合假新闻检测模型(QMFND),旨在通过量子卷积神经网络(Quantum Convolutional Neural Network, QCNN)提升检测效率和准确性。

研究流程与实验方法
1. 数据预处理
- 文本处理:通过OpenAI的text-davinci-003 API提取新闻摘要,利用预训练XLNet模型生成特征矩阵,降维至8维。
- 图像处理:采用VGG-19模型提取图像特征,压缩为100维向量。
- 多模态融合:采用早期融合(Early Fusion)策略,将文本和图像特征拼接后,通过全连接层压缩为8维向量。

  1. 量子编码与QCNN训练

    • 量子编码:通过振幅编码(Amplitude Encoding)将8维经典数据映射至量子态,仅需3个量子比特(⌈log₂8⌉=3),显著降低资源消耗。
    • QCNN结构:设计三层量子电路(卷积层、池化层交替),卷积层使用旋转门(Ry、Rz)和受控U门实现特征提取;池化层通过丢弃量子比特减少维度。
    • 优化与测量:采用交叉熵损失函数和COBYLA优化器(无梯度优化),通过Z门测量量子态输出。
  2. 实验设计

    • 数据集:使用Gossip(10,010条训练数据,1,000条测试数据)和PolitiFact(381条训练数据,100条测试数据)两个社交媒体数据集。
    • 基线模型:对比BERT、XLNet、MCAN等7种经典模型,评估指标包括准确率、召回率、F1值等。

主要结果
1. 检测性能
- QMFND在Gossip和PolitiFact数据集上的准确率分别达87.9%和84.6%,优于多数经典模型(如CNN的80.6%和77.6%)。
- 在文本模态单独测试中表现最佳(Gossip: 88.4%),多模态融合性能略低(87.9%),但显著优于纯图像模态(80.2%)。

  1. 量子电路特性

    • 鲁棒性:在量子噪声(如比特翻转噪声,BF)下,QCNN保真度仍达94.2%(噪声概率𝑝=0.01)。
    • 纠缠能力:Meyer-Wallach测量值为0.819,表明电路具备高效纠缠能力。
    • 计算效率:时间复杂度为𝑂(log₂𝑛),远低于经典模型的𝑂(𝑛)。
  2. 参数分析

    • 量子比特数量:8量子比特时性能最优(16量子比特因“贫瘠高原”现象导致训练失效)。
    • 数据比例:真实新闻与假新闻比例为9:1时,F1值达0.928,优于1:1比例(0.768)。

结论与价值
1. 科学价值
- 首次将量子卷积神经网络应用于假新闻检测,证实QML在多模态融合任务中的潜力。
- 提出的振幅编码和量子池化层设计,为高维数据压缩提供了新方法。

  1. 应用价值
    • 适用于社交媒体平台的实时假新闻筛查,尤其在处理大规模数据时展现效率优势。
    • 模型代码已开源(GitHub),便于后续研究扩展。

研究亮点
1. 创新方法:结合量子振幅编码与经典多模态融合,实现低复杂度(仅8量子比特)和高精度。
2. 抗噪性能:QCNN在相位翻转(PF)和幅度阻尼(AD)噪声下保真度接近99%,优于传统量子算法。
3. 跨领域应用:为量子计算在自然语言处理(NLP)和计算机视觉(CV)的交叉应用提供范例。

其他发现
- 量子模糊神经网络(QFNN)可能进一步提升模型对不确定特征的适应性,作者建议未来研究可探索此方向。
- 需硬件升级以缓解当前量子模拟环境的噪声限制。


(注:全文约1,500字,涵盖研究全貌,重点突出方法与结果的创新性。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com