分享自:

伏羲:一种用于15天全球天气预报的级联机器学习预测系统

期刊:npj climate and atmospheric scienceDOI:10.1038/s41612-023-00512-1

类型a:原创研究学术报告

伏羲(Fuxi):15天全球天气预报的级联机器学习预测系统

作者及机构
该研究由复旦大学人工智能创新与孵化研究所的陈磊(Lei Chen)、钟晓辉(Xiaohui Zhong)、张峰(Feng Zhang)、程远(Yuan Cheng)、徐英辉(Yinghui Xu)、齐元(Yuan Qi✉)和李浩(Hao Li✉)等人合作完成,并于2023年发表在期刊npj Climate and Atmospheric Science上。

学术背景
传统基于物理过程的数值天气预报(Numerical Weather Prediction, NWP)模型虽广泛应用于全球天气预报,但其计算成本高昂,且随着预报时效延长,误差累积问题显著。近年来,机器学习(Machine Learning, ML)模型在天气预报领域取得突破,例如在10天预报中超越了欧洲中期天气预报中心(ECMWF)的高分辨率确定性预报(HRES)。然而,ML模型在更长时效(如15天)的预报中仍面临误差累积的挑战。研究团队提出伏羲(Fuxi)系统,旨在通过级联ML架构减少误差累积,实现与ECMWF集合预报(Ensemble Mean, EM)相当的15天全球预报性能。

研究流程

  1. 数据准备与模型设计

    • 数据来源:研究使用ECMWF的ERA5再分析数据集,时间跨度为39年(1979-2017),空间分辨率0.25°,时间分辨率6小时,包含13个气压层的5个高空变量(如500 hPa位势高度Z500)和5个地面变量(如2米温度T2M)。
    • 模型架构:伏羲系统的核心是U-Transformer,结合了Swin Transformer V2的注意力机制与U-Net的下采样-上采样结构。其创新点包括:
      • 立方体嵌入(Cube Embedding):通过3D卷积降低数据维度,提升计算效率。
      • 级联模型(Cascade Model):分为三个子模型——Fuxi-Short(0-5天)、Fuxi-Medium(5-10天)和Fuxi-Long(10-15天),分别优化不同时效的预报性能。
  2. 训练与优化

    • 预训练:使用纬度加权L1损失函数,单步预测优化。
    • 微调:采用课程学习(Curriculum Learning)策略,逐步增加自回归步数(2至12步),以减少误差累积。
    • 计算资源:在8块NVIDIA A100 GPU上训练,耗时约30小时(预训练)和2天(微调)。
  3. 集成预报开发

    • 通过扰动初始条件(Perlin噪声)和模型参数(蒙特卡洛 dropout),生成50成员的集合预报,以量化不确定性。

主要结果

  1. 确定性预报性能

    • 在15天预报中,伏羲的Z500和T2M的有效预报时效(ACC > 0.6)分别延长至10.5天和14.5天,优于ECMWF HRES(9.25天和10天)。
    • 空间误差分析显示,伏羲在高纬度地区的误差显著低于HRES,且与ECMWF EM性能相当(67.92%的变量组合ACC更高)。
  2. 集合预报评估

    • 在9天预报时效内,伏羲集合的连续排名概率评分(CRPS)与ECMWF集合相当,但长时效下因扰动衰减导致离散度不足。

结论与价值
伏羲系统首次实现了ML模型在15天全球预报中与ECMWF集合预报的竞争性性能,其级联架构和U-Transformer设计为长时效预报的误差控制提供了新思路。科学价值在于证明了ML模型可替代传统NWP的部分功能,应用潜力包括降低计算成本、提升业务预报效率。未来方向包括改进初始扰动方法(如流依赖扰动)和拓展至次季节预报。

研究亮点
1. 级联架构:通过分阶段优化模型,显著减少长时效预报的误差累积。
2. 高性能基础模型:U-Transformer结合了Swin Transformer V2的注意力机制与U-Net的空间特征提取能力。
3. 开源与可复现性:代码和样本数据公开,推动领域合作。

其他价值
研究团队计划开发数据同化(Data Assimilation)的ML方法,以实现真正的端到端预报系统,进一步减少对NWP初始条件的依赖。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com