该文档属于类型a,是一篇关于智能故障诊断(Intelligent Fault Diagnosis, IFD)领域原创研究的学术论文。以下为详细报告内容:
本研究由Kui Hu、Qingbo He*(通讯作者)、Changming Cheng和Zhike Peng合作完成,均来自上海交通大学机械系统与振动国家重点实验室。论文题为《Adaptive Incremental Diagnosis Model for Intelligent Fault Diagnosis with Dynamic Weight Correction》,发表于期刊Reliability Engineering and System Safety第241卷(2024年),2023年10月1日在线发布,DOI: 10.1016/j.ress.2023.109705。
该研究属于机械故障诊断与健康管理(Prognostics and Health Management, PHM)领域,聚焦于智能故障诊断(IFD)的核心挑战:传统IFD模型无法持续学习新增故障模式数据,而重新训练模型成本高昂。工程实践中,设备故障数据动态产生,需开发具备增量学习(Incremental Learning, IL)能力的诊断模型。
现有基于深度学习(Deep Learning, DL)的IFD方法依赖静态数据集,难以适应动态数据流。研究提出自适应增量诊断模型(Adaptive Incremental Diagnosis Model, AIDM),结合动态权重校正(Dynamic Weight Correction, DWC)算法,旨在解决以下问题:
1. 灾难性遗忘(Catastrophic Forgetting):模型在学习新故障模式时遗忘旧知识;
2. 稳定性-可塑性困境(Stability-Plasticity Dilemma):平衡新旧故障模式的识别能力;
3. 模型复杂度与资源消耗:避免增量更新导致模型结构膨胀。
AIDM由三部分组成:
- 特征提取模块(Feature Extraction Module):基于ResNet的深度网络,提取高维特征;
- 线性分类器(Linear Classifiers):可扩展的全连接层,动态增加输出节点以适应新故障模式;
- 样本库(Exemplar Library):存储代表性旧故障样本,用于增量训练时知识回放。
步骤1:模型扩展
- 新增故障模式数据到达时,扩展线性分类器的输出节点,随机初始化新节点参数;
- 旧模型参数(特征提取模块和旧分类器)迁移至新模型。
步骤2:联合训练
- 输入数据:新故障数据((D{new}))和样本库中的旧数据((D{old}));
- 损失函数:加权交叉熵损失(Weighted Cross-Entropy Loss, WCE)和知识蒸馏损失(Knowledge Distillation Loss, KD),公式为:
[ L = \mu L{WCE} + \lambda L{KD} ]
- WCE损失:解决新旧类别样本不平衡问题,通过校准权重((\alpha{old}, \alpha{new}))调整损失贡献;
- KD损失:通过软化旧模型输出概率(温度参数(T)),保留旧知识。
步骤3:动态权重校正(DWC)
- 权重归一化:计算新旧分类器权重向量的范数比((\beta)),平衡输出规模;
- 动态调整系数((\gamma{old}, \gamma{new})):根据训练误差动态修正分类器权重,缓解稳定性-可塑性困境。
步骤4:样本库更新
- 采用Herding策略选择最具代表性的样本,固定库容量(如初始训练集的50%);
- 移除旧样本中距离类别中心最远的样本,为新故障模式腾出空间。
增量性能
DWC算法有效性
资源效率
论文还探讨了AIDM的局限性,如对同一故障类型在不同工况下的处理能力不足,未来可结合迁移学习(Transfer Learning, TL)进一步优化。实验代码与参数已公开,便于复现与改进。