ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

【深度学习】LSTM的架构及公式

2019-01-22 12:02:57  阅读:917  来源: 互联网

标签:gt 架构 公式 lt langle gate rangle LSTM


LSTM比传统的RNN强在哪里?

LSTM:long short term memory networks(长短时记忆模型)
传统的RNNs只能解决短期依赖的问题,比如我们想预测这句话“the clouds are in the sky”的最后一个词"sky",我们不需要更多的信息,前面的信息已经足够了,这种情况下,相关信息之间的距离非常近,此时传统的RNNs可以处理此类问题。但当相关信息距离非常远时,比如我们要预测“I grew up in France…I speak fluent French”这句话中的最后一个词“French”,我们需要之前的信息“France”,对于这种长距离的依赖RNNs是无法处理的,但是LSTMs可以解决此类问题。

LSTM的结构

第一幅图是传统的RNN的结构,每个循环单元中只有一层layer。传统的RNN计算公式可以参看此链接
standard RNN
下图是LSTM的结构,每个循环单元中有四层layer。
在这里插入图片描述
将LSTM循环单元进一步展开如下图:在这里插入图片描述

LSTM循环单元包含三个门(gate),分别负责遗忘哪些历史信息(Forget gate)、增加哪些历史信息(updating gate)、以及输出门(Output gate)

  1. 第一个门((forget gate layer)):决定我们要扔掉哪些信息(1)Γft=σ(Wf[at1,xt]+bf)\Gamma_f^{\langle t \rangle} = \sigma(W_f[a^{\langle t-1 \rangle}, x^{\langle t \rangle}] + b_f)\tag{1} Γf⟨t⟩​=σ(Wf​[a⟨t−1⟩,x⟨t⟩]+bf​)(1)该公式计算出的值介于0-1之间(因为激活函数是sigmoid),所以当该值与c&lt;t1&gt;c^{&lt;t-1&gt;}c<t−1>点乘操作时,值越大的位置相乘后得到的结果值也越大,即该位置保留的历史信息越多。
  2. 第二个门(updating gate):用来决定我们要增加哪些新的信息(2)Γut=σ(Wu[at1,x{t}]+bu)\Gamma_u^{\langle t \rangle} = \sigma(W_u[a^{\langle t-1 \rangle}, x^{\{t\}}] + b_u)\tag{2} Γu⟨t⟩​=σ(Wu​[a⟨t−1⟩,x{t}]+bu​)(2)
    第三层layer的计算公式如下,用来与更新门点乘得到要增加的信息:(3)c~t=tanh(Wc[at1,xt]+bc) \tilde{c}^{\langle t \rangle} = \tanh(W_c[a^{\langle t-1 \rangle}, x^{\langle t \rangle}] + b_c)\tag{3} c~⟨t⟩=tanh(Wc​[a⟨t−1⟩,x⟨t⟩]+bc​)(3)最终该循环单元的c&lt;t&gt;c^{&lt;t&gt;}c<t>,即用来保存历史信息的输出,用下面公式计算:(4)ct=Γftct1+Γutc~t c^{\langle t \rangle} = \Gamma_f^{\langle t \rangle}* c^{\langle t-1 \rangle} + \Gamma_u^{\langle t \rangle} *\tilde{c}^{\langle t \rangle} \tag{4} c⟨t⟩=Γf⟨t⟩​∗c⟨t−1⟩+Γu⟨t⟩​∗c~⟨t⟩(4)
  3. 第三个门(Output gate),该门用来计算a&lt;t&gt;a^{&lt;t&gt;}a<t>, 然后a&lt;t&gt;a^{&lt;t&gt;}a<t>用来计算该单元的输出yyy (5)Γot=σ(Wo[at1,xt]+bo) \Gamma_o^{\langle t \rangle}= \sigma(W_o[a^{\langle t-1 \rangle}, x^{\langle t \rangle}] + b_o)\tag{5}Γo⟨t⟩​=σ(Wo​[a⟨t−1⟩,x⟨t⟩]+bo​)(5)
    (6)at=Γottanh(ct) a^{\langle t \rangle} = \Gamma_o^{\langle t \rangle}* \tanh(c^{\langle t \rangle})\tag{6} a⟨t⟩=Γo⟨t⟩​∗tanh(c⟨t⟩)(6)

参考博客及论文:
https://arxiv.org/pdf/1402.1128v1.pdf
http://colah.github.io/posts/2015-08-Understanding-LSTMs/

标签:gt,架构,公式,lt,langle,gate,rangle,LSTM
来源: https://blog.csdn.net/Alexbyy/article/details/86584322

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有