分享自:

利用Kolmogorov-Arnold网络求解偏微分方程的新方法

期刊:Springer Nature Singapore Pte LtdDOI:10.1007/978-981-97-9112-5_3

本研究由Sanghyun Yeo(RGSV, Hanoi, Vietnam)、Phuong Anh Nguyen、Anh Ngoc Le(均来自Swinburne Vietnam, FPT University, Hanoi, Vietnam)以及Satyam Mishra(International School, Vietnam National University, Hanoi, Vietnam)合作完成,发表于Springer Nature Singapore Pte Ltd. 2025年出版的《Innovations in Electrical and Electronics Engineering》第1295卷。论文标题为《KAN-PDEs: A Novel Approach to Solving Partial Differential Equations Using Kolmogorov-Arnold Networks—Enhanced Accuracy and Efficiency》,聚焦于利用科尔莫戈罗夫-阿诺德网络(Kolmogorov-Arnold Networks, KAN)解决偏微分方程(Partial Differential Equations, PDEs)的创新方法。

学术背景

偏微分方程是描述流体力学、热传导和波传播等物理现象的核心工具。传统数值方法(如有限差分法和有限元法)虽精确但计算成本高,尤其在处理高维问题时效率低下。近年来,基于神经网络的解决方案(如物理信息神经网络,Physics-Informed Neural Networks, PINNs)展现出潜力,但仍受限于固定激活函数和大参数量的缺陷。科尔莫戈罗夫-阿诺德表示定理(Kolmogorov-Arnold Representation Theorem)为KAN提供了理论基础,该定理指出任何多元连续函数均可表示为单变量连续函数的叠加。本研究旨在验证KAN在PDE求解中的优越性,通过结构化网络设计和可学习激活函数提升精度与效率。

研究流程与方法

  1. 问题建模:针对泊松方程(Poisson Equation)、热方程(Heat Equation)和波动方程(Wave Equation)三类PDE,构建微分算子L(u)=f的求解框架,其中u为未知函数,f为源项。
  2. 模型架构
    • KAN模型:输入层(1神经元)→5个隐藏层(每层20神经元,tanh激活)→输出层(1神经元)。其核心创新在于用可学习的样条参数化单变量函数替代传统线性权重,通过边上的激活函数实现动态调整。
    • 对照MLP模型:输入层(1神经元)→3个隐藏层(每层10神经元,ReLU激活)→输出层(1神经元)。
  3. 物理信息损失函数:将PDE的残差(如泊松方程的∇²u−f)纳入均方误差(MSE)损失函数,确保解符合物理规律。
  4. 训练与评估:使用Adam优化器(学习率0.01),5000次迭代训练,并采用Dropout和L2正则化防止过拟合。合成数据集包含1000个采样点,覆盖定义域[-1,1]。

主要结果

  1. 精度对比
    • 泊松方程:KAN的MSE为0.0001,显著优于MLP的0.0002(提升50%)。
    • 热方程与波动方程:KAN的MSE分别比MLP低35%和30%。
  2. 计算效率:尽管KAN结构更复杂,其训练时间与MLP相当(如泊松方程训练时间分别为17.98秒和13.82秒)。
  3. 可解释性:KAN的边激活函数提供了更透明的参数关系,便于分析解的物理意义。

结论与价值

本研究首次系统地将KAN应用于PDE求解,其结构化设计显著提升了精度且未牺牲效率。科学价值体现在:
1. 理论验证:通过实验证实了科尔莫戈罗夫-阿诺德表示定理在PDE求解中的实用性。
2. 方法创新:可学习激活函数和样条参数化技术为高维问题提供了新思路。
3. 应用潜力:在工程仿真、材料建模等领域,KAN可替代传统数值方法,实现更高精度的动态预测。

研究亮点

  1. 性能突破:KAN在三类PDE上均实现40%以上的MSE提升。
  2. 算法创新:边激活函数和分层结构设计是区别于传统MLP的关键。
  3. 跨学科意义:为机器学习与计算数学的交叉研究提供了范例。

其他价值

论文还探讨了KAN在神经ODE(如Lotka-Volterra模型)中的扩展应用,表明其在学习符号源项和复杂动态系统(如薛定谔方程)中的潜力,为后续研究指明了方向。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com