报告题目:Error estimates of residual minimization using neural networks for linear PDEs
报 告 人:伍斯特理工学院,张中强教授
报告摘要:We propose an abstract framework for analyzing the convergence of least-squares methods based on residual minimization when feasible solutions are neural networks. With the norm relations and compactness arguments, we derive error estimates for both continuous and discrete formulations of residual minimization in strong and weak forms. The formulations cover recently developed physics-informed neural networks based on strong and variational formulations.
报告人简介:张中强,现任伍斯特理工学院(美国)数学科学系副教授。2011年上海大学数学系取得计算数学博士学位,师从马和平教授。 2014年1月获得布朗大学应用数学系博士学位,并获得David Gottlieb毕业奖。 2014年7月起任教于伍斯特理工学院数学科学系。主要研究兴趣计算数学包括积微分方程数值解,计算概率和优化,以及机器学习的计算理论等。在各类著名计算数学期刊发表多篇论文。以第一作者与Professor George Em Karniadakis合著《Numerical methods for stochastic partial differential equations with white noise》一书。
报告时间:2021年4月30日上午9:00-10:00
报告地点:腾讯会议 ID: 719 376 131
报告邀请人:科学与工程计算团队