前言:本文为作者与多智能体大模型进行多轮深入讨论得出的报告,如有错误之处,请在评论区指出,谢谢!
PINNs收敛性证明领域十大核心文献
引言 (Introduction)
自2019年Raissi等人提出物理信息神经网络(Physics-Informed Neural Networks, PINNs)以来,这一将深度学习与科学计算相结合的新兴范式迅速成为科学机器学习(Scientific Machine Learning, SciML)领域的研究热点。PINNs通过将偏微分方程(PDEs)的物理约束直接嵌入神经网络的损失函数中,实现了数据驱动与物理驱动的有机融合,为解决高维、非线性、多尺度的复杂物理问题提供了全新的思路。与传统数值方法(如有限元法、有限差分法)相比,PINNs具有无需网格离散、易于处理高维问题、天然适配GPU加速等独特优势,已在流体力学、固体力学、生物医学、材料科学等众多领域展现出巨大的应用潜力。
然而,尽管PINNs在众多实际问题中取得了令人瞩目的经验成功,其理论基础在相当长时间内却远远滞后于应用实践。早期研究主要聚焦于方法的可行性验证和应用拓展,而对诸如"PINNs何时收敛"、"收敛速度如何"、"误差界是多少"、"泛化能力如何保证"等核心理论问题缺乏严格的数学论证。这种理论与实践的脱节导致了一系列实际困难:训练过程对超参数高度敏感、收敛性缺乏保证、高阶或高频PDE求解困难、域外泛化能力差等。Krishnapriyan等人甚至指出PINNs在某些问题上系统性失败,引发了对其可靠性的广泛质疑。更为关键的是,缺乏理论指导使得方法改进往往依赖试错,难以形成系统性的优化策略。
近年来,随着神经切线核(Neural Tangent Kernel, NTK)理论、最优恢复理论、泛化误差分析等数学工具的引入,PINNs的理论研究取得了突破性进展。Shin等人首次针对线性二阶椭圆和抛物型PDEs提供了严格的收敛性证明,通过引入Hölder正则化框架,证明了最小化正则化损失的神经网络序列在概率1下一致收敛到PDE的唯一经典解,开启了PINNs理论分析的新纪元。De Ryck和Mishra对Kolmogorov方程给出了完整的误差分析,不仅构造了PINN残差可任意小的神经网络,更重要的是证明了PINNs在高维问题上可以克服维数灾难——网络大小和训练样本数仅以多项式速度增长,而非指数增长。Wang等人从NTK视角揭示了PINNs训练困难的本质,证明了全连接PINNs在无限宽度极限下收敛到高斯过程,并发现不同损失项(PDE残差、边界条件、初始条件)的收敛率存在数量级差异,这种谱偏差(spectral bias)问题导致网络优先学习低频特征而难以捕捉高频成分。Doumèche等人建立了最全面的收敛性与误差分析框架,系统阐明了正则化的必要性,证明了经典PINNs会系统性过拟合,并通过引入ridge和Sobolev正则化提供了理论保证的解决方案。这些理论工作不仅深化了对PINNs内在机制的理解,也为方法改进提供了坚实的数学基础。与此同时,针对PINNs面临的核心挑战,研究者们提出了丰富多样的改进策略。在架构层面,Kolmogorov-Arnold Networks (KANs)通过将传统的固定激活函数替换为可学习的单变量样条函数,实现了更强的表达能力和更好的收敛性;Fourier特征嵌入技术将输入坐标映射到高频特征空间,有效缓解了谱偏差问题;变量分离神经网络和分层自适应Fourier特征网络针对性地提高了对高频成分和多尺度特征的捕捉能力。在训练方法上,残差驱动的自适应采样策略在高残差区域密集采样,提高了采样效率;因果训练方法通过尊重时空因果结构,显著改善了动态系统的长时程预测能力;基于NTK特征值的自适应损失加权策略有效平衡了多目标优化。在理论扩展上,Hamilton神经网络和辛神经网络通过架构设计保持物理系统的能量守恒和辛结构;贝叶斯PINNs和集成方法提供了预测不确定性的量化;多保真度学习框架实现了低保真大量数据与高保真少量数据的最优融合。这些进展标志着PINNs正从"概念验证"阶段迈向"工程实用"阶段。
当前,PINNs领域仍面临诸多亟待解决的挑战。首先,收敛性理论不完备——现有严格的收敛性证明主要针对线性、低阶PDEs,对于强非线性耦合系统(如Navier-Stokes方程)、高阶方程(如Cahn-Hilliard方程)、强耦合多物理场问题,理论分析仍是空白;有限宽度网络的收敛性理论远不如无穷宽极限完善,而实际应用中的网络都是有限宽度的。其次,高阶高频问题困难——Park等人从理论上证明了PDE阶数越高,梯度流收敛概率越低,这解释了为何四阶Biharmonic方程、六阶Swift-Hohenberg方程等高阶PDE用PINNs求解困难;对于高频振荡解(如高波数Helmholtz方程、快速振荡的电磁波),标准PINNs由于谱偏差而难以精确捕捉。第三,训练效率与稳定性问题——多目标优化中不同损失项量级差异导致平衡困难,自动微分计算高阶导数的计算代价大,训练对初始化、学习率等超参数高度敏感,容易陷入局部最优或鞍点。第四,泛化能力局限——训练域外预测精度显著下降,对PDE参数的微小变化敏感,这限制了PINNs在参数化设计、不确定性量化等场景的应用。第五,复杂系统求解能力不足——对于包含间断、激波、奇异性的问题,PINNs作为光滑函数逼近器本质上难以精确刻画;多尺度耦合系统(如湍流、燃烧)中不同物理过程的时空尺度差异巨大,单一网络难以同时捕捉;长时程动力学问题中误差累积导致预测失败。此外,PINNs还面临一系列更深层次的挑战。
物理一致性问题方面,标准PINNs无法保证能量守恒、熵增、概率归一等物理基本定律,求解Hamilton系统时可能出现长时间能量漂移;对于热力学不可逆过程、相变等问题,可能学到违反物理的解。数据与物理的权衡困境中,PINNs号称数据高效,但实践中仍需大量配点;在数据充足时反而不如纯数据驱动方法;当物理模型本身不完美(如湍流模型、本构关系)时,严格施加错误物理反而降低性能。拓扑与几何挑战包括裂纹扩展、相界面演化等动态拓扑变化,边界层、裂纹尖端等局部奇异性,以及移动边界和自由边界问题。可解释性与可信度方面,黑箱特性使得解错误时难以定位原因,非凸优化可能收敛到错误解,不确定性来源(认知、偶然、模型)难以分离。系统性与可复现性问题体现在结果对超参数高度敏感、随机初始化导致不同结果、缺乏标准化的报告规范。展望未来,PINNs的发展将呈现以下趋势。理论深化方面,需要建立涵盖非线性、高阶、多尺度PDEs的完整收敛性理论,发展有限宽度网络的训练动力学分析,建立从逼近能力到实际性能的完整理论链条,明确网络复杂度与逼近误差的定量关系,提供紧的误差上下界。
架构创新方向包括发展结构保持神经网络(Hamilton、Lagrangian、辛网络)确保物理守恒律,探索量子PINNs利用量子计算的潜在优势,融合符号推理与神经网络实现符号-数值混合计算,发展神经算子学习解算子而非单个解以提高泛化能力。方法融合强调与传统数值方法深度结合,发挥各自优势形成混合求解器;多保真度学习融合不同精度的数据和模型;主动学习智能选择采样点和实验设计;迁移学习实现跨任务、跨参数的快速适应。应用深化要求在数字孪生、实时监测、逆问题求解、多物理场耦合等工业级应用中达到生产可用标准,找到传统方法无法胜任而PINNs独具优势的"杀手级"场景。生态完善需要建立标准化的基准测试体系(如PDEBench、PINNacle),开发成熟的开源工具(如DeepXDE、NVIDIA Modulus),制定统一的性能评估指标和验证标准,建设系统的教育资源和最佳实践指南。
特别值得关注的新兴方向包括:生成模型与概率方法,如基于score matching的PINNs、流模型(Normalizing Flows)处理概率密度演化、生成对抗网络(GAN)范式的物理一致性判别器;因果推断与反事实推理,从观测数据推断因果关系,回答"如果改变某参数会怎样"的反事实问题;人机协同与交互式学习,专家实时纠正训练、主动向专家询问不确定区域、可视化驱动的交互式调试;跨模态融合,如图像-PDE融合用于医学成像、文本-方程融合利用大语言模型辅助建模、异构传感器的多模态数据同化;边缘计算与硬件协同,神经形态计算的低功耗实时求解、光学神经网络的超快并行计算、忆阻器的计算存储融合。
本文系统梳理了2020-2026年间PINNs收敛性证明的重要理论进展,涵盖线性椭圆抛物型方程、Kolmogorov方程、界面问题、高阶PDE等不同类型;深入分析了训练困难、泛化能力、物理一致性、复杂系统求解等多维度挑战;全面展望了架构创新、理论深化、方法融合、应用拓展、生态建设等未来发展方向。我们希望这一综述能够为研究者提供清晰的理论脉络和方法论指导,为方法创新指明有价值的研究问题,为应用实践提供可操作的技术路线,推动PINNs从理论探索走向工程实用,最终实现人工智能赋能科学计算的愿景。
1. 原创性基础工作
[1] Raissi, M., Perdikaris, P., & Karniadakis, G. E. (2019). Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations. Journal of Computational Physics, 378, 686-707.
链接: https://www.sciencedirect.com/science/article/pii/S0021999118307125
为何必读:
-
PINNs领域的奠基性论文,引用超10000次 -
首次系统阐述PINNs框架 -
虽无严格收敛性证明,但定义了研究范式 -
所有后续理论工作的基准
核心贡献: 建立了将物理定律嵌入神经网络损失函数的统一框架
2. 椭圆与抛物型PDE收敛性
[2] Shin, Y., Darbon, J., & Karniadakis, G. E. (2020). On the convergence and generalization of physics informed neural networks. arXiv preprint arXiv:2004.01806.
链接: https://arxiv.org/abs/2004.01806
为何必读:
-
首个提供严格收敛性证明的理论工作 -
针对线性二阶椭圆和抛物型PDE -
引入Hölder正则化的理论框架 -
证明在H¹模式下一致收敛到唯一经典解
核心定理: Theorem 3.3证明了最小化Hölder正则化损失的神经网络序列在概率1下收敛到PDE解
对你的价值: 为SV-SNN、J-PIKAN提供理论基准对照
3. Kolmogorov方程误差分析
[3] De Ryck, T., & Mishra, S. (2022). Error analysis for physics-informed neural networks (PINNs) approximating Kolmogorov PDEs. Advances in Computational Mathematics, 48(6), 79.
链接: https://link.springer.com/article/10.1007/s10444-022-09985-9
为何必读:
-
对重要PDE类(Kolmogorov方程)提供最完整的误差分析 -
包含热方程、Black-Scholes方程等经典案例 -
证明PINNs克服维数灾难:网络大小和样本数仅多项式增长 -
泛化误差的上界与训练误差直接关联
核心结果:
-
构造了PINN残差可任意小的神经网络 -
证明总L²误差可由泛化误差控制 -
泛化误差由训练误差和样本数界定
对你的价值: 为谱方法神经网络的误差分析提供方法论
4. 综合收敛性与误差分析
[4] Doumèche, N., Biau, G., & Boyer, C. (2024). Convergence and error analysis of PINNs. arXiv preprint arXiv:2305.01240 (已被顶级期刊接收).
链接: https://hal.science/hal-04085519/document
代码: https://github.com/NathanDoumeche/Convergence_and_error_analysis_of_PINNs
为何必读:
-
最全面系统的PINNs理论分析(2024年最新) -
涵盖混合建模和PDE求解两种设置 -
证明经典PINNs会系统性过拟合(Theorem 3.1) -
提供实用的ridge和Sobolev正则化方案
核心定理:
-
Theorem 4.6: Ridge PINNs的风险一致性 -
Theorem 5.7: 正则化PINNs的强收敛性 -
Theorem 5.8: PDE求解器设置下精确重构解 -
Theorem 5.13: 混合建模的统计+物理双重一致性
对你的价值:
-
提供完整的理论分析框架 -
可对照分析你的SV-SNN、J-PIKAN的收敛性 -
PyTorch实现代码可直接借鉴
5. 神经切线核理论
[5] Wang, S., Yu, X., & Perdikaris, P. (2022). When and why PINNs fail to train: A neural tangent kernel perspective. Journal of Computational Physics, 449, 110768.
链接: https://www.sciencedirect.com/science/article/abs/pii/S002199912100663X
代码: https://github.com/PredictiveIntelligenceLab/PINNsNTK
为何必读:
-
从NTK视角揭示PINNs训练动力学 -
证明全连接PINNs在无限宽度下收敛到高斯过程 -
揭示spectral bias的根本原因 -
提出基于NTK特征值的自适应训练算法
核心发现:
-
PINNs不同损失项收敛率存在数量级差异 -
NTK的病态性导致训练困难 -
自适应权重可显著改善收敛
对你的价值:
-
解释为何高频PDE难以求解(与你的工作直接相关) -
为设计自适应策略提供理论依据 -
NTK分析方法可应用于J-PIKAN
6. 高阶PDE收敛性挑战
[6] Park, Y., Song, C., & Kang, M. (2024). Beyond derivative pathology of PINNs: Variable splitting strategy with convergence analysis. arXiv preprint arXiv:2409.20383. (NeurIPS 2024)
链接: https://openreview.net/forum?id=8K6ul0hgtC
为何必读:
-
首次理论证明PDE阶数与收敛概率的反向关系 -
针对你关注的高阶PDE问题 -
提出变量分裂策略(与你的SV-SNN思想契合) -
证明降低微分阶数可提高收敛概率
核心定理:
-
高阶PDE导致梯度流收敛概率指数下降 -
变量分裂后的系统更可能收敛到全局最优
对你的价值:
-
为SV-SNN的变量分离策略提供直接理论支撑 -
高阶PDE的收敛性分析方法 -
可引用证明你方法的优越性
7. 椭圆界面问题收敛性
[7] Wu, S., Lu, B., et al. (2023). Convergence of physics-informed neural networks applied to linear second-order elliptic interface problems. Communications in Computational Physics, 33(2), 596-627.
链接: https://lsec.cc.ac.cn/~lubz/Publication/2023-CiCP-Converg-INN.pdf
为何必读:
-
首个证明界面问题PINNs收敛性的工作 -
在H²空间证明收敛(更强的收敛模式) -
引入梯度增强(GE)和Lipschitz正则化(LIPR) -
处理间断系数的技术对多物理场耦合有启发
核心方法:
-
域分解+梯度增强处理界面条件 -
理论保证:神经网络序列在H²中收敛
对你的价值:
-
多尺度/界面问题的理论参考 -
对流体-固体耦合等应用有指导意义
8. 泛化误差估计
[8] Mishra, S., & Molinaro, R. (2023). Estimates on the generalization error of physics-informed neural networks for approximating PDEs. IMA Journal of Numerical Analysis, 43(1), 1-43.
链接: https://academic.oup.com/imajna/article/43/1/1/6687195
为何必读:
-
建立PINNs泛化误差的统一理论框架 -
利用稳定性理论推导泛化误差上界 -
对前向和逆问题都提供分析 -
方法适用于非线性PDE
核心贡献:
-
抽象形式化框架 -
利用PDE的稳定性性质推导泛化界 -
样本复杂度分析
对你的价值:
-
理论分析方法论 -
为网络设计提供样本复杂度指导
9. 最优恢复理论
[9] Bonito, A., DeVore, R., Petrova, G., & Siegel, J. W. (2024). Convergence and error control of consistent PINNs for elliptic PDEs. arXiv preprint arXiv:2401.xxxxx.
链接: https://andreabonito.org/Publications/Preprints/2024_BDPS_CPINNs.pdf
为何必读:
-
从最优恢复(optimal recovery)角度分析PINNs -
提供上下界匹配的理论最优收敛率 -
后验误差估计方法 -
提出改进的损失函数设计
核心问题:
-
Q1: 给定精度ε,需要多少采样点m? -
Q2: 给定预算m,最小误差是多少?
对你的价值:
-
最优性分析框架 -
为网络设计和采样策略提供理论上界
10. 最新综述(理论部分)
[10] Mishra, S. (2024). Numerical analysis of physics-informed neural networks and related models in physics-informed machine learning. Acta Numerica, 33, 1-155.
链接: https://www.cambridge.org/core/journals/acta-numerica/article/numerical-analysis-of-physicsinformed-neural-networks
为何必读:
-
最权威的PINNs理论综述(Acta Numerica是应用数学最高级别综述期刊) -
系统总结2019-2024所有重要理论进展 -
涵盖收敛性、误差分析、泛化理论 -
作者Siddhartha Mishra是该领域理论方向的领军人物
内容覆盖:
-
逼近理论 -
收敛性分析 -
泛化误差 -
优化理论 -
各种变体(wPINN, HP-VPINN等)
对你的价值:
-
必读的理论综述,相当于该领域的"教科书" -
全面了解理论前沿 -
文献综述的最佳参考
阅读建议与优先级
第一优先级(立即精读)
-
[4] Doumèche et al. (2024) - 最全面的理论分析 -
[2] Shin et al. (2020) - 收敛性证明的基础 -
[10] Mishra (2024) - 权威综述
第二优先级(深入研读)
-
[3] De Ryck & Mishra (2022) - 误差分析方法论 -
[5] Wang et al. (2022) - NTK理论与spectral bias -
[6] Park et al. (2024) - 高阶PDE与变量分离
第三优先级(针对性阅读)
-
[7] Wu et al. (2023) - 界面问题(如研究多物理场) -
[8] Mishra & Molinaro (2023) - 泛化理论 -
[9] Bonito et al. (2024) - 最优性理论
基础了解
-
[1] Raissi et al. (2019) - 原始PINNs论文(必引)
如何高效利用这些文献
理论框架构建
-
用[10]建立整体认知 -
用[2,3,4]建立收敛性分析的数学工具 -
用[5]理解训练困难的根源
支撑你的工作
-
SV-SNN: 引用[6]作为变量分离的理论依据 -
J-PIKAN: 对比[2,3]的标准PINNs收敛速率 -
HAFFN: 用[5]的spectral bias理论解释优越性 -
有效秩理论: 结合[5]的NTK分析
论文写作模板
Introduction:
- 引用[1]介绍PINNs
- 引用[10]总结当前理论状态
Related Work:
- 收敛性理论: [2,3,4,7]
- 训练困难: [5,6]
- 泛化性: [8,9]
Theoretical Analysis:
- 借鉴[4]的正则化框架
- 参考[3]的误差界推导方法
- 使用[6]的阶数分析技术
Experiments:
- 对比[2]的基准问题
- 采用[4]的评估指标
额外推荐(第11-15篇)
如果需要更深入研究,以下5篇也极具价值:
[11] De Ryck, T., & Mishra, S. (2023). Generic bounds on the approximation error for physics-informed (and) operator learning. NeurIPS 2023.
[12] Zeinhofer, M., Masri, R., & Mardal, K. A. (2023). A unified framework for the error analysis of physics-informed neural networks. arXiv:2311.00529.
[13] Shin, Y., Zhang, Z., & Karniadakis, G. E. (2023). Error estimates of physics informed neural networks for linear PDEs. arXiv:2010.08019.
[14] Hu, Z., Shukla, K., Karniadakis, G. E., & Kawaguchi, K. (2024). Tackling the curse of dimensionality with physics-informed neural networks. Neural Networks.
[15] Müller, J., & Zeinhofer, M. (2024). Achieving high accuracy with PINNs via energy natural gradient descent. ICML 2023.
这10+5篇文献构成了PINNs收敛性理论的完整知识体系!
总结 (Conclusion)
物理信息神经网络(PINNs)作为科学机器学习的前沿范式,在过去五年间经历了从概念提出到理论深化、从方法探索到应用拓展的快速发展历程。本文系统回顾了PINNs收敛性理论的核心进展,深入剖析了该领域面临的多维度挑战,并展望了未来的发展方向。
在理论层面,从Shin等人的线性椭圆型方程收敛性证明,到De Ryck和Mishra的Kolmogorov方程误差分析,再到Doumèche等人的综合收敛性与误差分析框架,研究者们为不同类型的PDEs建立了日益完善的数学理论基础。Wang等人基于神经切线核的训练动力学分析揭示了谱偏差的本质,Park等人关于PDE阶数与收敛性关系的理论工作为高阶方程求解指明了方向。这些理论突破不仅回答了"PINNs为何有效"的根本问题,更为方法改进提供了清晰的数学指导。
然而,正如本文所分析的,PINNs理论仍存在显著的不完备性:非线性强耦合系统的收敛性尚缺严格证明,有限宽度网络的理论远不如无穷宽极限完善,泛化误差界往往过于宽松而缺乏实用指导价值。在实践层面,训练困难、计算效率、泛化能力、物理一致性等挑战制约着PINNs从实验室走向工业应用。这些理论与实践的双重挑战既是当前的瓶颈,也是未来研究的巨大机遇空间。
令人鼓舞的是,该领域呈现出蓬勃的创新活力。在架构设计上,从传统多层感知机到Kolmogorov-Arnold网络、从单一网络到神经算子、从固定结构到自适应多尺度架构,展现出丰富的技术路线。在训练方法上,自适应采样、因果训练、多保真度学习等策略显著改善了性能。在理论拓展上,结构保持、不确定性量化、符号-数值混合等方向开辟了新的可能性。这些进展共同推动着PINNs向更加可靠、高效、智能的方向演进。 展望未来,PINNs的发展将不仅仅是一个孤立技术的完善过程,而是科学计算范式深刻变革的一部分。其成功依赖于以下几个关键维度的突破:理论上,需要建立统一的数学框架,刻画不同PDE类型、不同网络架构、不同训练策略下的收敛性和泛化性,建立从逼近能力到实际性能的完整理论链条;方法上,需要发展兼顾精度、效率、稳定性的混合求解器,将深度学习的灵活性与传统数值方法的可靠性有机结合;应用上,需要找到传统方法无法胜任而PINNs独具优势的"杀手级"场景,建立工程级的验证标准;生态上,需要构建标准化的基准测试、成熟的开源工具、系统的教育资源,降低使用门槛,促进知识传播。 特别值得关注的是,PINNs正在从单纯的"PDE求解器"演化为更广阔的"AI辅助科学发现"工具。通过与因果推断、符号回归、主动学习等技术的融合,PINNs有潜力不仅求解已知物理方程,更能从数据中发现未知规律、验证科学假设、加速研发循环。这一愿景的实现需要数学家、物理学家、计算机科学家、领域专家的深度协作,需要基础理论研究与工程应用实践的良性互动。 对于年轻研究者而言,PINNs领域提供了丰富的研究机会:可以从事严格的数学理论研究,证明新的收敛定理,建立更紧的误差界;可以设计创新的网络架构和训练算法,解决特定类型的难题;可以开展跨学科应用,将方法应用于前沿科学问题;可以开发软件工具,为社区贡献开源实现。无论选择哪条路径,扎实的数学基础、深刻的物理洞察、创新的工程思维都是不可或缺的素养。 最后,我们必须清醒认识到,PINNs不是万能的,也不会取代传统数值方法。其价值在于拓展了科学计算的工具箱,为某些问题提供了新的视角和可能性。正如有限元法在特定问题上优于有限差分法,PINNs也有其适用范围和局限性。理性评估、客观比较、诚实报告是该领域健康发展的基石。我们期待在不远的将来,PINNs能够在理论的坚实支撑下,在更多实际应用中证明其独特价值,成为连接人工智能与科学计算的重要桥梁,为人类探索自然规律、解决复杂问题提供强大的智能工具。
AI4PDE/CFD从入门到前沿课程
了解课程或报名课程,请后台私信或留言:课程目录
📊 课程全景总览
|
|
|
|
|---|---|---|
| 📚 基本信息 |
|
|
|
|
|
|
|
|
|
|
| 📖 课程资料 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 🎯 核心内容 |
|
|
|
|
|
|
|
|
|
|
| 📚 素材来源 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 🌍 学员分布 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 🏆 学员成果 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 💡 核心优势 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
了解课程或报名课程,请后台私信或留言:课程目录
或加群了解课程
往期推荐阅读
-
斯坦福大学和MIT提出频谱信息多阶段神经网络:达到机器精度的多尺度函数逼近器 -
上海交大JCP25新综述:理解和克服用于求解偏微分方程的深度神经网络学习方法的频谱偏差 -
有限算子学习:架起神经算子与数值方法的桥梁,实现偏微分方程的高效参数化求解与优化(附代码数据) -
麻省理工物理系:所有学习都是(自然)梯度下降吗? -
PINNs25新综述:基于物理信息神经网络对非光滑问题、激波前沿建模的挑战与进展:综述与基准研究 -
综述2025|物理引导的机器学习正在为复杂系统建模解锁新能力 -
ELM-DeepOnet:通过极限学习机实现深度算子网络的无反向传播训练,高效准确求解PDEs -
【最新Science子刊】布朗大学GE Karniadakis院士团队:物理信息KAN从测量速度数据推断湍流热对流(附代码数据) -
PINNs新综述25:将物理学融入深度学习,物理信息深度学习PIDL用于建模和模拟 -
苏黎世联邦理工CMAME25:物理信息深度学习中的多目标损失平衡 -
Physical Review Letters (PRL):降低数据分辨率以实现更好超分辨率:从含噪观测中重建湍流(附代码数据) -
JCP25:L1范数稀疏正则化高频增强物理信息神经网络求解高频问题 -
JCP25||VS-PINN:使用变尺度方法快速高效训练物理信息神经网络以求解具有刚性行为的偏微分方程(附代码数据) -
北京应用物理与计算数学研究所AI4PDE新框架:DeePoly,用于科学机器学习的高阶精度与高效深度多项式框架(附代码数据) -
探究物理信息神经网络求解器收敛性的神经切线核分析:PIKANs与PINNs -
西北工业大学张伟伟教授团队PINNs最新综述||物理信息神经网络的智能求解PDEs:局限性与未来展望(附系列工作及代码算例)

