分享自:

基于多模态融合和注意力机制的轴承故障诊断

期刊:Appl. Sci.DOI:10.3390/app15031531

轴承故障诊断的多模态融合与注意力机制研究

本研究报告介绍一项由Jianjian Yang、Haifeng Han(通讯作者)等来自中国矿业大学(北京)和国家应急管理部智能采矿与机器人重点实验室的研究团队于2025年2月在《Appl. Sci.》(2025, 15, 1531)发表的原创研究。该研究提出了一种名为FAN-BD(Fusion Attention Network for Bearing Diagnosis)的新型轴承故障诊断方法,通过融合振动与电流信号并结合注意力机制,显著提升了诊断准确性(97.5%)。

学术背景
轴承故障是矿业机械(如起重机、输送机)失效的主要诱因,可能导致设备停机和安全事故。传统诊断方法依赖人工特征提取(如时频分析)和浅层模型(如支持向量机),存在主观性强、泛化性差等缺陷。深度学习虽能自动提取特征,但现有算法如CNN(卷积神经网络)或ViT(Vision Transformer)在多模态信号融合全局-局部特征协同方面仍有不足。本研究旨在通过改进ViT结构,结合电流与振动信号的互补性,实现更高效的故障诊断。

研究流程与创新方法

  1. 数据预处理

    • 研究对象:采用公共数据集(Vibration, Acoustic, Temperature, and Motor Current Dataset)中的振动信号(4通道,25.6 kHz采样率)和电流信号(3通道,100 kHz采样率),涵盖正常、内圈故障、外圈故障和滚动体故障四种状态。
    • 信号转换:将256×4的振动信号和256×3的电流信号归一化至0-255范围,通过3层CNN(卷积核分别为3×3和1×1)转换为16×16单通道灰度图像,保留关键特征(图1)。
  2. FAN-BD模型设计

    • 局部特征提取:使用小卷积核(3×3)和步长优化,增强对信号局部细节的捕捉能力。
    • 全局特征整合:通过ViT的自注意力机制(Self-Attention)分析图像全局关联性,弥补CNN的局限性。
    • 多模态融合:创新性引入通道多头注意力机制(CBMA),动态校准振动与电流特征的权重。具体流程包括:
      • 将ViT提取的两种信号特征拼接(公式5)。
      • 通过CBMA生成查询(Query)、键(Key)、值(Value),计算注意力权重(公式6-7)。
      • 多头注意力(公式8-9)与多层感知机(MLP,公式10)进一步融合特征,最终通过线性层分类(公式11)。
  3. 实验验证

    • 对比模型:CBMA-ViT、ViT、Swin Transformer和ConvNeXt。
    • 评价指标:准确率(Accuracy)、精确率(Precision)、召回率(Recall)和F1分数。
    • 训练配置:PyTorch框架,Intel i7-8250U CPU与NVIDIA MX150 GPU,训练集与测试集比例7:3。

主要结果
1. 分类性能:FAN-BD在测试集上达到97.5%准确率,显著高于对比模型(CBMA-ViT 92.9%、Swin Transformer 93.1%)。具体表现为:
- 四类故障的精确率均超过97%(表4),外圈故障检测的召回率达98%。
- 混淆矩阵(图6)显示误分类样本不足10例(总计600例)。
2. 特征融合有效性:t-SNE可视化(图7)表明,FAN-BD的特征分布更紧密且类别边界清晰,而其他模型存在明显重叠(图10)。
3. 收敛速度:损失函数曲线(图9)显示FAN-BD的收敛速度最快,且最终损失值最低,印证其优化效率。

结论与价值
1. 科学价值
- 提出了一种新型多模态融合框架,首次将CBMA机制应用于轴承故障诊断,证明了跨模态注意力校准的可行性。
- 揭示了电流信号在外圈故障检测中的互补作用(图5显示电流不平衡现象)。
2. 应用价值:为工业场景中的实时故障监测提供了高鲁棒性解决方案,尤其适用于复杂工况下的矿业设备维护。
3. 局限性:模型复杂度较高,可能增加计算成本;未来可探索温度、声学等多模态扩展。

研究亮点
1. 方法创新:FAN-BD结合了CNN的局部特征提取与ViT的全局建模优势,并通过CBMA实现信号动态加权融合。
2. 性能突破:97.5%的准确率为当前同类研究的最高水平之一。
3. 数据集贡献:基于公开多传感器数据验证,增强了结果的可复现性。

其他要点
- 实验数据表明,传统方法(如SVM)在噪声环境下的准确率不足90%,而FAN-BD的注意力机制对噪声具有强鲁棒性。
- 作者计划进一步优化模型轻量化,并探索其在其他旋转机械(如齿轮箱)中的应用。

(注:专业术语如CBMA(Channel-Based Multi-Head Attention)、ViT(Vision Transformer)在首次出现时标注英文原词。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com