ICode9

精准搜索请尝试: 精确搜索
  • [论文阅读] RNN 在阿里DIEN中的应用2020-11-07 09:04:17

    [论文阅读] RNN 在阿里DIEN中的应用 0x00 摘要 本文基于阿里推荐DIEN代码,梳理了下RNN一些概念,以及TensorFlow中的部分源码。本博客旨在帮助小伙伴们详细了解每一步骤以及为什么要这样做。 0x01 背景知识 1.1 RNN RNN,循环神经网络,Recurrent Neural Networks。 人们思考问题往往不是

  • 基于RNN自编码器的离群点检测2020-11-04 22:34:10

    作者|David Woroniuk 编译|VK 来源|Towards Data Science 什么是异常 异常,通常称为异常值,是指数据中不符合数据系列总体行为的数据点、数据序列或模式。因此,异常检测就是检测不符合更广泛数据中的模式的数据点或序列的任务。 对异常数据的有效检测和删除对于许多业务功能非常有用

  • Python3入门人工智能 掌握机器学习 深度学习 提升实战能力9:深度学习之循环神经网络2020-11-03 10:03:07

      序列数据案例                               循环神经网络RNN  

  • 通过深层神经网络生成音乐2020-10-31 19:33:39

    作者|Ramya Vidiyala 编译|VK 来源|Towards Data Science 深度学习改善了我们生活的许多方面,无论是明显的还是微妙的。深度学习在电影推荐系统、垃圾邮件检测和计算机视觉等过程中起着关键作用。 尽管围绕深度学习作为黑匣子和训练难度的讨论仍在进行,但在医学、虚拟助理和电子商务

  • 调研报告|在线语音识别改进之 RNN-T 训练2020-10-21 12:03:59

    调研报告|在线语音识别改进之 RNN-T 训练 走运黄 ​ 华东师范大学 计算机技术硕士 ​关注他 10 人赞同了该文章 这篇文章主要调研的是另外一种改进在线语音识别的方法:基于 RNN Transducer 方法。当然最近强势的基于 Transformer 的 Encoder-Decoder 在线方法(Mo

  • 语音识别中的End2End模型: CTC, RNN-T与LAS2020-10-20 12:32:18

      语音识别中的End2End模型: CTC, RNN-T与LAS 马上科普 领先的人工智能知识平台 已关注   自动语音识别(Automatic Speech Recognition,简称ASR)是一项将机器学习与实际需要紧密结合的领域,应用场景如语音助手,聊天机器人,客服等等。今天就来比较一下比较流行

  • Pytorch官方教程:用RNN实现字符级的生成任务2020-10-04 09:02:12

    数据处理 传送门:官方教程 数据从上面下载。本次的任务用到的数据和第一次一样,还是18个不同国家的不同名字。 但这次需要根据这些数据训练一个模型,给定国家和名字的首字母时,模型可以自动生成名字。   首先还是对数据进行预处理,和第一个任务一样,利用Unicode将不同国家的名字采用相

  • 【03】RNN2020-09-17 16:00:52

    https://blog.csdn.net/zhaojc1995/article/details/80572098  RNN前向传播过程            其中                       它们二者是何其的相似,都把输出压缩在了一个范围之内。他们的导数图像也非常相近,我们可以从中观察到,sigmoid函数的导数范围是(0,0.25

  • 语音识别算法阅读之transformer-transducer(facebook)2020-09-16 23:00:59

    论文:   TRANSFORMER-TRANSDUCER:END-TO-END SPEECH RECOGNITION WITH SELF-ATTENTION 思想:   1)借助RNN-T在语音识别上的优势,通过tranformer替换RNN-T中的RNN结构,实现并行化运算,加快训练过程;   2)encoder部分前段引入包含因果卷积的VGGNet,一方面缩短声学特征的时序长度,节约计

  • 【KDD2020论文阅读总结】预测新产品上市后的基于时间的销售数据(IBM)(基于注意力机制的多模态模型)2020-09-03 11:00:20

    https://dl.acm.org/doi/pdf/10.1145/3394486.3403362 【Title】Attention based Multi-Modal New Product Sales Time-series Forecasting【应用】预测新产品上市后的基于时间的销售数据【领域】Neural networks; RNNs; Encoder-Decoder;【文章要点】1. 使用历史数据进行训练,预测

  • rnn预测股价2020-08-27 08:00:19

    获取数据集 import tushare as ts import matplotlib.pyplot as plt df1 = ts.get_k_data('600519', ktype='D', start='2010-04-26', end='2020-04-26') datapath1 = "./SH600519_bak.csv" df1.to_csv(datapath1)    #!

  • 循环神经网络(RNN、LSTM)2020-08-22 03:31:42

    循环神经网络(RNN) VS 卷积神经网络 卷积神经网络:输入输出之间相对独立(图像分类) 循环神经网络:处理上下文具有时序关系的任务;引入“记忆”的概念(机器翻译) RNN的基本结构 O[t] = g(V×S[t]) S[t] = f(U×X[t] + W×S[t-1])————W、U参数固定 注:RNN在不同时刻共享同一

  • RNN神经网络产生梯度消失和梯度爆炸的原因及解决方案2020-08-03 06:03:41

    St为t时刻的隐含层状态值;     Ot为t时刻的输出值;     ①是隐含层计算公式,U是输入x的权重矩阵,St-1是t-1时刻的状态值,W是St-1作为输入的权重矩阵,ΦΦ是激活函数;     ②是输出层计算公司,V是输出层的权重矩阵,f是激活函数。   损失函数(loss function)采用交叉熵Lt=−ot¯

  • attention mechanism思考2020-07-29 04:00:42

    1. 了解有几种attention mechanism Seq2Seq, from a sequence input to a sequence output.  Align & Translate, A potential problem of the vanilla Seq2Seq architecture is that some information might not be captured by a fixed-length vector, i.e., the final hidd

  • 【笔记】HLP - 李宏毅 - 4 - 语音识别 - Part 3 CTC, RNN-T and more2020-07-08 15:40:25

    Connectionist Temporal Classification (CTC) CTC可以用于线上实时地语音识别,编码器用的是单向的RNN,解码是用MLP来预测文字分布。 编码器将语音输入\(x^i\)编码成\(h^i\),MLP再对它乘上一个权重,接上Softmax,得到词表V大小的概率分布。 但有时候当前的语音输入可能并不能对应实际的

  • 循环神经网络(Recurrent Neural Network)讲解学习2020-07-01 11:51:33

    先来看一个例子:     之前的全连接神经网络的结构:它的隐藏层的值只取决于输入的 x:   该结构对于上面问题只能做如下预测: 比如:可以预测:花开时——>跑得快    由此可见:通过简单的神经网络(单层的前馈神经网络)无法解决该三个问题,需要用关联的神经网络来解决。 RNN:Motivation:需

  • RNN2020-06-18 21:55:03

    RNN 转自:https://blog.csdn.net/zhaojc1995/article/details/80572098 RNN(Recurrent Neural Network)是一类用于处理序列数据的神经网络。基础的神经网络只在层与层之间建立了权连接,RNN最大的不同之处就是在层之间的神经元之间也建立的权连接。 基本结构 图中O代表输出,y代表样本给

  • 自己动手实现深度学习框架-8 RNN文本分类和文本生成模型2020-06-15 11:08:02

    代码仓库: https://github.com/brandonlyg/cute-dl 目标         上阶段cute-dl已经可以构建基础的RNN模型。但对文本相模型的支持不够友好, 这个阶段的目标是, 让框架能够友好地支持文本分类和本文生成任务。具体包括: 添加嵌入层, 为文本寻找高效的向量表示。 添加类别抽样

  • 李宏毅深度学习笔记05---RNN 循环神经网络022020-06-14 19:05:33

    1.案例引出     RNN-based network 总是不容易学习。 下图展示了语言模型的损失函数与训练周期的关系。蓝色是理想的损失函数走势图,绿色是实际试验中可能出现的损失值。 损失函数存在突变的现象: 下图中可见Loss 函数的变化情况,左侧的损失函数较大,右侧的损失函数较小,存在剧烈变

  • 李宏毅深度学习笔记04---RNN 循环神经网络012020-06-14 17:05:43

    1.RNN导出案例---Neural network needs memory      加入记忆元素的案例: 2.RNN的结构   当神经网络有了记忆后,由于存储在memory中的值不同,模型的输出也会不同。   当然,RNN的结构可以是深层的。 3.Bidirectional RNN  双向的循环神经网络   双向RNN的优点:例如填写完形

  • RNN 梯度消失/爆炸问题的解决方法2020-05-26 19:07:40

    https://blog.csdn.net/cindy_1102/article/details/89010066一、既然我们已经对消失梯度问题的本质和它在深度神经网络中的表现有了直观的认识,那么让我们关注一个简单而实用的启发式方法来解决这些问题。 为了解决梯度爆炸的问题,Thomas Mikolov首先引入了一个简单的启发式解决方

  • RNN & GRU & LSTM 区别与联系2020-04-28 10:51:44

    这里讲一下RNN(又称“valina RNN”)&GRU&LSTM三者的具体结构以及之间的联系。 1、RNN   在基本的RNN中(valina RNN),输出和隐状态相同; 2、GRU 加入了reset门和update门,前者用于确定前一步的隐状态有多少可以输入当前步,后者用于确定当前步的隐状态有多少可以输出下一步,结构如下: 多层

  • 论文阅读 | Assessing the Ability of Self-Attention Networks to Learn Word Order2020-04-21 22:55:38

    论文地址 :https://arxiv.org/abs/1906.00592 作者 :Baosong Yang, Longyue Wang, Derek F. Wong, Lidia S. Chao, Zhaopeng Tu 机构 : 腾讯AI lab   研究的问题: 在RNN类网络中,使用的是序列建模,可以表示位置信息。而在self-attention network(SAN)的网络中,学习位置信息的能力较弱。

  • 【笔记】李宏毅 -- Transformer2020-04-07 19:03:04

    1.Transformer RNN和CNN的局限性 RNN是seq2seq的模型,RNN不易平行化,如果是单向的话,要输出\(b^3\),需要先看完\(a^1, a^2, a^3\)。如果是双向的话,可以看完整个句子。 CNN在高层的时候,可以考虑距离更长的信息,CNN易于并行化。CNN的缺点是,考虑的只是局部内容,要考虑长距信息,需要叠加很多

  • 【NLP】文本分类综合(rnn,cnn,word2vec,TfidfVectorizer)2020-03-23 10:00:13

    1.中文评论情感分析(keras+rnn)1.1 需要的库1.2 预训练词向量1.3 词向量模型1.4 训练语料 (数据集)1.5 分词和tokenize1.6 索引长度标准化1.7 反向tokenize1.8 构建embedding matrix1.9 padding(填充)和truncating(修剪)1.10 用keras搭建LSTM模型1.11 结论1.12 错误分类2.新浪

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有