分享自:

基于深度学习的螺旋桨三维RANS与LES流场映射模型

期刊:Appl. Sci.DOI:10.3390/app15010460

基于深度学习的螺旋桨三维流场RANS至LES映射模型研究报告

一、 研究团队与发表信息 本研究的主要作者为Jianhai Jin(金剑海)、Yuhuang Ye(叶雨璜)、Xiaohe Li(李晓和)、Liang Li(李亮)、Min Shan(单旻)和通讯作者Jun Sun(孙俊)。研究团队来自两个机构:中国船舶科学研究中心(China Ship Scientific Research Center)及其太湖实验室(Taihu Laboratory of Deepsea Technology Science),以及江南大学(Jiangnan University)人工智能与计算机学院。该研究成果以学术论文形式发表于期刊《Applied Sciences》(Appl. Sci.)2025年第15卷第1期,具体发表日期为2025年1月6日。

二、 学术背景与研究目的 本研究隶属于流体力学与人工智能交叉领域,具体聚焦于湍流数值模拟(Turbulence Numerical Simulation)的模型映射问题。湍流是自然界和工程领域普遍存在的复杂流动现象,对其进行精确模拟一直是流体力学研究的核心挑战。当前主流的湍流数值模拟方法主要包括直接数值模拟(Direct Numerical Simulation, DNS)、大涡模拟(Large Eddy Simulation, LES)和雷诺平均纳维-斯托克斯模拟(Reynolds-Averaged Navier–Stokes, RANS)。其中,DNS精度最高但计算成本极其昂贵,难以应用于实际工程;LES在精度和成本之间取得折衷,能够解析大尺度涡结构,但计算资源需求依然很高;RANS通过时间平均化处理湍流,计算效率高,在工程中应用广泛,但其缺点是无法像LES那样精确捕捉流动的瞬时细节和相干结构。

在此背景下,本研究旨在解决当前湍流模拟中“计算精度与计算成本难以平衡”的核心矛盾。具体而言,研究者提出一个科学问题:能否利用计算成本较低的RANS数据,通过数据驱动的方法,高效地生成接近LES精度的流场数据?因此,本研究的主要目的是构建一个基于深度学习的映射模型,实现从三维螺旋桨RANS流场数据到对应LES流场数据的端到端预测。该研究的价值在于,若能成功建立此映射关系,则可在保持RANS计算效率的前提下,获得逼近LES精度的流场信息,从而为复杂流动(如船舶螺旋桨尾流)的高效、高精度数值仿真提供一种全新的技术路径。

三、 详细研究流程与方法 本研究的工作流程系统而完整,主要包含三个核心步骤:数据预处理、映射模型构建与训练、流场数据回归生成。

第一步:流场数据预处理与三维图像化 研究对象为船舶螺旋桨在特定雷诺数下的三维非定常流场。数据集包含1000个样本,每个样本均包含同一工况下通过CFD模拟生成的RANS数据和LES数据。每个数据样本包含约600万个空间点,每个点记录了其坐标 (x, y, z) 和三个方向的速度分量(轴向 v_axial,切向 v_tangential,径向 v_radial)。 数据处理的核心思想是将离散的、非结构化的流场点云数据,转化为深度学习模型易于处理的三维图像格式。具体流程如下: 1. 区域裁剪:分析发现,90%以上的数据点集中在螺旋桨中心附近区域 { (x, y, z) | -0.4 ≤ x ≤ 0.4, -0.4 ≤ y ≤ 0.4, -0.4 ≤ z ≤ 0 }。为提高后续处理的精度和效率,研究者裁剪出此中心区域(尺寸为0.8m × 0.8m × 0.4m)进行独立处理,舍弃外围对核心流场特征影响较小的区域。 2. 体素化(Voxelization):将裁剪后的三维空间划分为均匀的小立方体网格(体素)。通过实验对比,最终确定的体素尺寸为0.0125m × 0.0125m × 0.0125m,从而生成一个尺寸为64 × 64 × 32的三维数组。 3. 速度值计算与赋值:对于每个体素,需要计算一个代表该体素速度的值。研究采用加权平均法:对于落入或邻近该体素的所有原始数据点,计算其到体素中心的距离,距离越近权重越大(权重为距离的倒数),然后对所有点的速度向量进行加权平均,得到该体素中心位置的速度向量 (v_axial, v_tangential, v_radial)。 4. 归一化与图像生成:将上述三维数组中的速度值进行归一化处理,然后将每个体素视为一个“像素”,其值(即归一化后的速度)作为像素的“强度”。最终,RANS和LES的流场数据分别被转化为对应的三维灰度图像(实际上是三个通道分别对应三个速度分量的三维图像数据)。

第二步:构建与训练RANS到LES的映射模型 此步骤目标是建立一个深度学习网络,其输入是RANS流场的三维图像,输出是预测的LES流场三维图像。研究者设计了一个类似于3D U-Net结构的编码器-解码器神经网络作为映射模型。该网络结构包含: - 编码器(Encoder):通过多个三维卷积层和下采样操作,逐步提取输入RANS图像的多尺度深层特征。 - 解码器(Decoder):通过三维转置卷积层和上采样操作,逐步将编码器提取的特征图重建为与输入同尺寸的预测LES图像。 - 跳跃连接(Skip Connections):将编码器相应层级的特征图直接传递到解码器对应层,帮助网络在重建图像时保留更多的空间细节信息,这对于精确重建流场结构至关重要。 研究者探索了不同的网络输入方式: - 单速度分量输入:分别为三个速度分量(v_axial, v_tangential, v_radial)训练三个独立的映射网络。 - 三速度分量联合输入:将三个速度分量作为三个通道,一同输入一个网络进行训练,以捕捉速度分量间的潜在关联。 - 双流网络(Two-stream Model):除了输入当前时刻的静态流场图像(空间流),还额外输入由连续时间步流场计算得到的光流(Optical Flow)图像(时间流),试图利用时间演化信息来提升映射精度。两个支流的特征在后期进行融合。 模型训练使用均方误差(Mean Squared Error, MSE)作为损失函数,采用随机梯度下降(SGD)优化器,在由70%训练集、10%验证集和20%测试集划分的数据集上进行。

第三步:通过回归模块从预测图像生成点速度数据 映射模型输出的是一个三维图像(数组),需要将其还原回原始流场中每个具体坐标点的速度值。为此,研究者设计了一个回归模块。具体流程如下: 1. 坐标映射:对于原始流场中任意一个待预测的点P (x, y, z),根据其空间坐标,映射到预测的三维图像数组中的相应位置。 2. 邻域提取:以该位置为中心,提取一个3×3×3的局部体素区域(共27个邻域体素)。 3. 速度回归计算:将这27个邻域体素的坐标(映射回原始物理坐标系)及其存储的速度预测值,再次使用加权平均法,计算出点P的最终预测速度。加权权重同样基于邻域体素中心到点P实际坐标的距离来确定。 通过这个回归模块,实现了从全局图像到局部点数据的精确转换。

四、 主要实验结果与分析 实验部分系统评估了所提出方法的有效性和各项设计选择的影响。

关于数据预处理参数的实验结果: 研究者首先通过实验确定了最优的数据预处理参数。比较不同输入区域大小和体素尺寸的组合发现,采用中心裁剪区域(0.8×0.8×0.4 m³)体素尺寸(0.0125×0.0125×0.0125 m³) 能在预测误差和计算时间之间取得最佳平衡。例如,使用此配置,三个速度分量的映射误差率(轴向、切向、径向)分别为2.73%、27.59%、22.73%,平均预测时间约为467秒。而增大或减小体素尺寸,或使用更大/更小的裁剪区域,均会导致误差上升或计算时间显著增加。

关于映射模型输入方式的实验结果: - 单分量 vs. 三分量联合输入:三分量联合输入略优于单分量输入,且计算时间相近,表明联合学习有助于模型捕捉流场的内在关联。 - 双流网络的失效:引入时间流(光流)信息的双流网络并未改善映射效果,反而导致所有速度分量的误差率大幅上升(例如,三分量联合输入的双流网络误差增至5.43%, 40.94%, 69.98%)。分析认为,在三维螺旋桨流场中,除了桨叶规则运动外,还存在大量不规则涡旋,导致三维光流异常复杂,这些复杂的时间动态信息反而干扰了静态空间特征的映射学习。作为对比,研究者在同一数据集的某个二维切片上测试双流网络,则观察到了性能提升,这印证了三维流场时间特征的复杂性是导致双流网络失效的主要原因。

关于最终映射精度的实验结果: 采用最优配置(中心裁剪、0.0125m体素、三分量联合输入的3D U-Net映射模型+回归模块),在整个测试集上的最终预测结果如下: - 轴向速度(v_axial)误差率:2.73% - 切向速度(v_tangential)误差率:27.59% - 径向速度(v_radial)误差率:22.73% - 整体平均误差率约为17.68%。 误差分析表明,轴向速度预测精度极高,而切向和径向速度误差较大。研究者分析了原始数据,发现轴向速度的均值和方差远大于切向和径向速度,后两者速度值本身较小且变化平缓。在数据归一化和误差计算过程中,这种量级差异被放大,导致了较高的百分比误差率。尽管如此,17.68%的整体误差率被认为在工程可接受范围内,尤其是考虑到该方法能显著节省计算成本。

研究还提供了预测结果与真实LES数据的详细对比表格和误差分布图。图表显示,主要的预测误差集中在螺旋桨桨叶附近的强剪切和涡旋区域,这与预期相符,因为这些区域的流动最为复杂。

与前期二维映射模型的对比: 研究者将本三维模型与其前期开发的二维映射模型进行了对比。二维模型在二维切片上的整体误差率可低至约8%,优于三维模型的18%。然而,三维模型处理的点数巨大,无法像二维模型那样对每个点进行独立的精细回归,必须采用“全局映射+局部回归”的集成策略,这在一定程度上牺牲了精度以换取处理效率。最终,三维模型在保证一定精度(误差率<20%)的同时,实现了对全三维流场数据的高效映射,证明了其工程实用性。

五、 研究结论与价值 本研究成功提出并验证了一种基于深度学习的三维螺旋桨流场RANS至LES数据映射方法。该方法通过创新的数据体素化处理,将流场数据转换为三维图像,利用改进的3D U-Net网络学习从RANS图像到LES图像的复杂映射关系,并结合回归模块实现点对点的速度预测。 科学价值:该研究开创性地将计算机视觉中的三维图像处理技术系统性地应用于湍流模型的数据迁移问题,为流体力学与人工智能的深度融合提供了一个具体而新颖的范例。它证明了通过数据驱动方法,在不同精度的物理模型之间建立有效关联是可行的。 应用价值:该方法的核心优势在于显著提升了高精度流场数据的获取效率。传统上获取LES数据需要消耗巨大的计算资源和时间,而本方法利用广泛可得、计算快速的RANS数据,通过训练好的深度学习模型进行“转换”,即可在可接受的误差范围内快速生成LES级别的流场预测结果。这对于船舶螺旋桨设计、性能优化、空化与噪声预报等需要高精度流场细节但受限于计算成本的工程领域,具有重要的潜在应用价值。

六、 研究亮点 1. 方法新颖性:首次提出并实现了一套完整的、基于深度学习的三维湍流流场(RANS→LES)映射框架,涵盖了从数据预处理、模型构建到最终数据回归的全链条。 2. 技术创新点: - 三维流场体素化与图像化:创造性地将非结构化CFD点云数据转化为规则的三维图像张量,为深度学习模型的直接应用铺平了道路。 - 定制化的加权平均回归模块:设计了一种与体素化过程相匹配的、基于距离加权的后处理回归方法,实现了从预测图像到物理空间点数据的准确还原。 - 针对性的网络输入研究:通过实验明确了对于复杂三维湍流,联合速度分量输入优于单独处理,而引入时间序列光流信息在本场景下并无益处,这一发现具有指导意义。 3. 明确的工程导向:研究始终围绕“平衡精度与效率”这一工程核心需求展开,最终获得的模型在控制误差(整体<20%)的同时,为实现快速、近似高精度的流场模拟提供了切实可行的技术方案。

七、 其他有价值的内容 研究中对误差的深入分析(如不同速度分量误差差异的原因)体现了严谨的科研态度。此外,与团队前期二维工作的对比分析,不仅验证了三维方法的挑战性,也展示了研究工作的延续性和深入性。论文中公开的详细实验数据和参数对比(见表1, 2, 4),为后续相关研究提供了宝贵的参考基准。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com