ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

基本模型一: PINNs : Physics Informed Neural Networks

2020-01-14 21:37:12  阅读:1482  来源: 互联网

标签:differential partial 逼近 Neural Informed nonlinear PINNs PDE Networks


最开始当然要提到很经典的文章 —— Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations 。 这篇文章是布朗大学的助理教授 Maziar Raissi 和学术大牛GE Karniadakis 一起写的, 文章分为两部分, 第一部分写的是 Data-driven solutions of nonlinear partial differential equations, 就是在讲怎么解 PDEs(Partial Differential Equations), 第二部分写的是 Data-driven discovery of nonlinear partial differential equations, 就是在讲怎样解PDE的反问题 (带参数的PDE,参数需要在解的过程中求解出来)。 由于其基本想法很接近, 我们只谈第一部分, 简略的讲第二部分。下面便进入正题。 

监督学习是机器学习中的一个大类, 很多分类问题,回归问题都可以用它来解决。 那么, 从求解PDE的角度来看, 监督学习能发挥什么样的作用呢? 

如何逼近一个函数(算子)一直以来便是数学中的难题。 数学家们发展了很多工具来逼近函数, 如插值理论,框架, 谱方法 , 有限元等。 从逼近论的角度来看, 神经网络(Neural Networks)便可以看做一个非线性函数逼近器。 我们期望输出一个数据, 通过神经网络输出的值可以反应出输入数据的好坏, 有效性等, 从而有助于我们理解问题。 假设我们限制神经网络输出的值是一维的, 那么对于 binary classfication 来说, 我们可以把大于 0 的分为一类, 小于 0 的分为另一类。但是对于一个PDE来说, 我们如何来判断输入数据的好坏呢? 

给定一个非线性PDE 

u_t+\mathcal{N}[u;\lambda]=0, 

其中 u(x,t) 是要求的解, \mathcal{N}[u;\lambda ] 是非线性偏微分算子, \lambda 是需要待定的参数。 为简单起见, 我们假设\mathcal{N}[u;\lambda]=\mathcal{N}(u)。 用一个具体的例子(Burgers方程)来说明主要的想法和步骤

定义 f 为 f= u_t+uu_x-(0.01/\pi)u_{xx},  利用 Neural Networks 来逼近 u(x,t)。 定义损失函数为

 

其中

 

waitingwinter 发布了8 篇原创文章 · 获赞 0 · 访问量 476 私信 关注

标签:differential,partial,逼近,Neural,Informed,nonlinear,PINNs,PDE,Networks
来源: https://blog.csdn.net/waitingwinter/article/details/103979339

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有