ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

大道至简,深度学习deep learning的形成原理和数学背景

2021-04-17 16:57:09  阅读:161  来源: 互联网

标签:Loss 机器 大道至简 deep 学习 神经网络 learning 深度 神经元


关于神经网络学习,相关文章大多描述过细、或过繁,恨不能写得越高深越好,理论解析中往往不知所云,概念词,复杂数学公式一股脑引入更提高了理解难度,学习者往往一头雾水,很难对学习模型原理有一个整体清晰的认识。


本文试图对深度学习deep learning形成原理,深度学习的数学背景给出至简的描述(大道至简),便于大家对神经网络基础理论有一个整体深入的了解,为日后的学习建立较好的基础。


深入学习是机器学习的一个部分,机器学习又是人工智能AI的一个部分。也就是说,机器学习有很多模式pattern或模型,深入学习只是其中一个分支,他侧重基于人工神经网络,而其形成源于大脑神经元之间信号交互的物理现象。


神经元交互,即信号从一个neural到另一个neural需要一个条件,即“阈值”,有了“阈值”大脑才知道该信号是否传入下一个神经元做出行为判断,从而有了动作行为。这种神经元的信号传递过程是可以用数学公式推导表示的,也可以理解为深度学习体系。


并不认同深度学习是大数据以及GPU催生的产物,我们以手写数字识别为例,训练集28X28像素图片6万张,这是一个大数据吗?远比一部影视剧视频小的多。那么硬件,该数集训练时长,CPU计算2-3个小时,也不是对计算硬件要求过高啊,要什么GPU。那么问题出在哪里?为什么直到2010年前后深度学习才被清楚认识?


可以这样解释,神经元网络在非线性问题的求解有了突破,是人类认识观发生了改变。可惜的是,最先提出并改变认识的一杆人不在中国,我们是不是该反省一下呢。。。。。


因此,我们可以这样说,以深度学习为核心的神经网路框架是为解决非线性问题而生,主要解决逻辑回归问题。这个问题的突破促使机器有了逻辑、推理、预测并自我学习的能力,进而可以近似的说机器得到了人所具备的智能。


我们看看神经网络的数学表达公式:

Y=fn(fn-1(fn-2(…f0(w1x+w2x+b)…)…) (1)

f(x)=wx+b (2)


每个神经元f(x)是一个线性函数表达,即公式(2),将各个神经元函数组合一起,公式(1),成为复杂神经网络(至于是什么结构的网络,比如多层,先不去管),那么最终求解这个Y,输出的Y是我们的预测值。


到此,神经网络的求解是一个线性求解,所涉及的所有x,w,b均为已知,也就是说训练集已知,参数w,b已知,求y不就是一个简单的任务吗,求得的y 就是机器算出的预测值(机器一般比较傻,但算力很好)。


好了,预测值有了,算的对吗?那就得跟真实的z比对一下了,真实的z也是已知的,那就比吧,这就引出了Loss函数的概念。


这个Loss就是药引子,是深度学习的关键,一般药引子使用均方误差或交叉熵,反正是一个比对函数,Loss越小,预测值y越接近真实值z。。。。。


当Loss已知时必定要引出求梯度,没有Loss就无法求梯度,那为什么求梯度呢?


为什么y不准,因为参数不准,也就是w,b不准,不准就得去修正,怎么修正,答案是算梯度,然后修正参数w,b。


到此为止,一个中学生或大一学生完全可以想到并算出这个梯度。


下一步,也是最最关键的一步,成就了机器能够学习的精彩篇章,且听下回分解。



标签:Loss,机器,大道至简,deep,学习,神经网络,learning,深度,神经元
来源: https://blog.51cto.com/u_15124734/2713789

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有