这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
机器学习驱动的核数据优化实验选择:基础科学与应用的双轨并行方法
作者及机构
本研究由D. Neudecker(通讯作者)、T. E. Cutler、M. Devlin等来自美国洛斯阿拉莫斯国家实验室(Los Alamos National Laboratory)的PARADIM合作团队完成,发表于2025年6月的《Physical Review X》期刊(DOI: 10.1103/physrevx.15.021086)。
研究领域与动机
该研究属于核数据(nuclear data)与机器学习交叉领域,聚焦于解决核反应数据评估中的关键问题:如何通过最优组合基础科学实验(differential experiments,微分实验)与应用驱动实验(integral experiments,积分实验),最大化减少核数据不确定性。核数据描述中子与原子核的相互作用,是核能安全、反应堆设计等应用的核心基础。然而,传统方法依赖线性流程,耗时长达数十年(如ZEUS实验耗时20年),且难以协调两类实验的互补性。
科学挑战
1. 高维优化问题:积分实验(如临界装置测量)依赖12,200个核数据点,而微分实验仅能直接测量其中数百个。
2. 数据偏差与关联性:积分实验的模拟结果受多核数据共同影响,单一微分实验无法覆盖全部关联变量。
3. 中间能区(1–600 keV)数据匮乏:钚-239(²³⁹Pu)在此能区的裂变截面数据存在显著理论空白,且历史实验覆盖率仅1.4%。
研究目标
开发一种基于机器学习(ML)的并行实验选择框架,通过量化分析确定最优实验组合,以加速核数据不确定性的降低。
采用三阶段流程:
1. 广义最小二乘法(GLS)调整:
- 步骤1:用历史微分实验数据更新核数据先验分布(式3-4),解决实验间系统偏差。
- 步骤2:引入积分实验数据进一步校准(式5-6),通过敏感性矩阵S关联核数据与keff模拟值。
2. D最优性(D-optimality)评估:计算每对候选实验组合的核数据不确定性缩减量(式8),量化其对12,200个核数据的联合影响。
不确定性缩减效果
方法优势
跨学科适用性
该方法可推广至其他领域(如天体核合成、材料催化),需满足:
科学意义
- 提出首个核数据领域的并行实验选择框架,弥合了基础科学与应用实验的鸿沟。
- 解决了中间能区²³⁹Pu数据匮乏问题,为快堆设计、核安全提供可靠数据支撑。
应用价值
- 优化核能系统设计:通过精准的keff预测,降低临界安全裕度不确定性。
- 方法论模板:为其他依赖多源实验的学科(如凝聚态物理、天体物理)提供参考。
此研究为核数据评估提供了范式转变,其方法论与结果有望推动核能与基础物理的协同发展。