Chen Xu等学者在《Engineering Applications of Artificial Intelligence》期刊(2024年卷133期)发表了一项关于隧道施工实时沉降预测的创新研究。该团队来自德国波鸿鲁尔大学结构力学研究所(Institute for Structural Mechanics, Ruhr University Bochum)和同济大学岩土工程系(Department of Geotechnical Engineering, Tongji University),提出了一种融合多保真度数据的深度算子网络(Multi-Fidelity Deep Operator Network, MF-DeepONet)框架。
随着城市化进程加速,机械化隧道掘进(Tunnel Boring Machine, TBM)技术被广泛应用于地下工程建设。然而,TBM施工引发的地表沉降可能威胁地面建筑物安全,传统预测方法存在两大局限:基于数值模拟的物理驱动方法(physics-driven approach)虽能捕捉基础力学规律,但与实际监测数据存在偏差;而纯粹数据驱动的机器学习方法(data-driven approach)受限于监测数据稀缺性和噪声干扰。为此,研究团队提出通过神经算子学习技术整合两类数据优势,实现高精度实时沉降场重建。
研究分为离线训练和在线预测两阶段,共包含七个核心步骤:
采用KRATOS开源框架建立三维有限元模型(图4),模拟软土中TBM掘进全过程。模型包含31,504个二阶六面体单元,考虑土体-盾构机-衬砌相互作用,设置120-220 kPa注浆压力(PG)和100-200 kPa掌子面支撑压力(PS)的100种工况(Ns=100),每工况64个时间步(Nt=64),记录地表126个节点(Nlp=126)的沉降数据。模型通过德国杜塞尔多夫地铁项目数据验证,误差小于5%。
构建改进型DeepONet架构(图2b),相比标准版本新增分支/主干编码器,通过Hadamard积增强非线性表达能力。输入采用因果预处理策略(公式9):将时间序列参数按时间倒序排列并零填充,确保当前沉降仅受历史参数影响。网络包含3层100神经元隐藏层,使用tanh激活函数和Adam优化器,经5,000次迭代后测试集R²达0.9867,均方根误差(RMSE)<0.5 mm。
在在线阶段,采用15个监测点(Nhp=15)的实际数据(含人工添加的15%-55%高斯噪声)训练残差子网络。通过迁移学习冻结低保真网络参数,仅训练2层残差网络,200次迭代即可收敛。提出输入增强策略(公式12),将低保真预测值作为残差网络主干输入,提升非线性关系学习效率。
通过Methodology 1流程,每时间步(<30秒)可完成全场地表沉降预测。对比传统gappy POD方法,本方法通过算子学习实现模型行为的全局修正,而非局部数据插值。
误差鲁棒性:即使监测数据含50%噪声,MF-DeepONet仍保持R²>0.8的精度,而纯数值模拟预测R²仅0.2(图14)。在注浆压力低估(k<1)、高估(k>1)和波动(k=1)三种误差类型下,预测最大沉降偏差均 mm(图9-11)。
数据效率:仅需32个时间步监测数据即可使R²稳定在0.9以上(图15)。当监测点减少至5个时,通过物理模式迁移仍能保持85%预测精度。
计算效能:迁移学习使在线训练时间从20分钟缩短至30秒,满足工程实时性需求。改进网络结构使精度较标准DeepONet提升7.3%(图6)。
本研究首次将神经算子学习应用于隧道沉降预测,其科学价值体现在: 1. 方法论创新:建立多保真度数据融合范式,解决”物理模型偏差”与”数据稀缺性”的双重挑战; 2. 工程实用性:30秒级的实时预测能力支持施工参数动态调整,如通过优化PG/PS将沉降控制在3mm内; 3. 技术普适性:框架可扩展至其他时空物理场重构问题,如地下水渗流、结构健康监测等。
作者指出未来可改进方向包括:优化传感器布置方案、引入线性子网络提升保真度、开发少样本学习(few-shot learning)技术以进一步减少数据需求。当前模型对突变形地质条件的泛化能力仍需通过更多工程案例验证。