ICode9

精准搜索请尝试: 精确搜索
  • 【预测模型】基于贝叶斯优化的LSTM模型实现数据预测matlab源码2021-09-24 13:03:23

    1 算法介绍 1.1 LSTM 人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。 传统的神经网络并不能

  • LSTM预测结果不一样2021-09-24 11:02:24

    项目场景: 预测->LSTM 问题描述: 相同数据的情况下,使用LSTM进行预测,但是每次得到的预测结果都不相同,存在偏差。 原因分析: 1.数据开始进行了随机处理(分测试集和训练集的时候随机抽样) 2.dropout层,含有随机性 解决方案: 选择训练出的最佳模型将其进行保存,后面直接对其进行调用。

  • 深度学习第11天_循环神经网络RNN22021-09-24 09:31:39

    循环神经网络RNN 循环神经网络的介绍 为什么有了神经网络还需要有循环神经网络? 在普通的神经网络中,信息的传递是单向的,这种限制虽然是的网络变得更容易学习,但在一定程度上也减弱了神经网络模型的能力,特别是在很多限时任务重,网络的输出不仅和当前时刻的输入相关,也和过去一段

  • 深度学习第12天_RNN实现文本情感分类2021-09-24 09:31:16

    Pytorch中LSTM和GRU模块的使用 LSTM介绍 LSTM和GRU都是由torch.nn提供 (1)LSTM的api torch.nn.LSTM(input_size, hidden_size, num_layers, batch_first, dropout, bidirectional) a. input_size:输入数据的形状,即embedding_dim b. hidden_size:隐藏层的神经元数量,即每一层有多

  • LSTM VS RNN改进2021-09-22 16:35:09

    1.rnn常见的图形表示 rnn是一种早期相对比较简单的循环神经网络,其结构图可以用如下表示。 图片来自网络。 其中,x,y,h分别表示神经元的输入,输出以及隐藏状态。 根据上面的图片不难看出,在时刻t,神经元的输入包括 x

  • 深度学习之序列建模初总结2021-09-21 23:00:14

            本文旨在讲解使用深度学习模型对序列数据进行建模,并且主要集中再MLP、RNN、LSTM以及GRU。 MLP         MLP是最简单的神经网络模型,其就是一个简单的DNN,即全连接前馈深度神经网络。根据通用近似理论,MLP可以近似拟合出任意的连续函数。但是这里有一个基本的前提是

  • LSTM之父Jürgen Schmidhuber评图灵2021-09-21 17:37:17

    LSTM之父Jürgen Schmidhuber评图灵 来源 https://people.idsia.ch/~juergen/turing-oversold.html   图灵的贡献真的被夸大了吗? 「艾伦 · 图灵(Alan M. Turing)对计算机科学做出了某些重大贡献。然而,这些贡献的重要性和影响力往往被夸大了,以牺牲该领域先驱者的利益为代价。不

  • NLP领域论文笔记【研一上】012021-09-21 16:58:51

    一、《Encoding Sentences with Graph Convolutional Networks for Semantic Role Labeling》         语义角色标注Semantic role labeling (SRL):以句子的谓词为中心,不对句子所包含的语义信息进行深入分析,只分析句子中各成分与谓词之间的关系,即句子的谓词(Predicate)-

  • 循环神经网络 LSTM RNN 回归:sin 曲线预测2021-09-20 15:04:03

    一.RNN 和 LSTM 回顾 1.RNN   (1) RNN 原理   循环神经网络英文是 Recurrent NeuralNetworks,简称 RNN。假设有一组数据 data0、data1、data2、data3,使用同一个神经网络预测它们,得到对应的结果。如果数据之间是有关系的,比如做菜下料的前后步骤,英文单词的顺序,如何让数据之间的关联

  • 文本分类模型2021-09-18 15:34:10

    文本分类 数据制作 煤矿安全规程转为文本 每章文本类别标签为章节名称 总数据量:281条,6个类别 文本转为向量 文本长度的填充为数据中最长的文本长度 标签映射为数字,再转为向量 one-hot 模型 LSTM embedding层 BiLSTM层 Dense层/全连接层 softmax loss:category_crossentropy Tr

  • 文献阅读_辅助穿戴_Assistive Technology for the Blind2021-09-13 09:32:49

    文笔很怪,看着不连贯   Abstract&Conclusion 相机+YOLO+LSTM+Inception V3+音频 啊,时代真好。 未来加入情感识别和距离检测。 Introduction RW 早期工作有由避障系统衍生的'virtual white cane'基于激光测距的‘一戳知距’,'Path Force feedback belt'基于3D建模进行力反馈,Smart ca

  • 超像素分割图神经网络资料汇总2021-09-12 16:05:55

    资料汇总 一. 相关论文二. 查阅的相关资料 一. 相关论文 3DGNN论文 《3D Graph Neural Networks for RGBD Semantic Segmentation》 源代码(Github)论文复现教程-(3DGNN)3D Graph Neural Networks for RGBD Semantic Segmentation其他复现博客:博客1,博客2语义分割图LSTM论文

  • 综合LSTM、transformer优势,DeepMind强化学习智能体提高数据效率2021-09-11 09:58:08

    来自 DeepMind 的研究者提出了用于强化学习的 CoBERL 智能体,它结合了新的对比损失以及混合 LSTM-transformer 架构,可以提高处理数据效率。实验表明,CoBERL 在整个 Atari 套件、一组控制任务和具有挑战性的 3D 环境中可以不断提高性能。 近些年,多智能体强化学习取得了突破性

  • 长度式记忆网络LSTM入门2021-09-03 20:02:40

    LSTM核心 1.单元状态(LSTM独有) 联系三个门的结构,为数据做更新。 1.与遗忘门结构相乘 2.与输入门结果相加 3.经过sigmoid函数计算 4.与输出门结果相乘 2.遗忘门:决定信息是否保存 方法: 通过sigmoid函数(上一个隐状态信息,当前输入信息)计算并压缩为[0,1]的值,决定是否保留

  • 需求预测——Predicting origin-destination ride-sourcing demand with a spatio-temporal encoder-decoder2021-09-03 19:01:50

    Predicting origin-destination ride-sourcing demand with a spatio-temporal encoder-decoder residual multi-graph convolutional network 相关工作缺陷 地图网格划分运用CNN和LSTM进行预测,CNN仅以地理方式捕获局部空间相关性,而无法对两个区域之间的语义相关性建模。大多

  • NLP与深度学习(二)循环神经网络2021-08-28 17:31:06

    1. 循环神经网络 在介绍循环神经网络之前,我们先考虑一个大家阅读文章的场景。一般在阅读一个句子时,我们是一个字或是一个词的阅读,而在阅读的同时,我们能够记住前几个词或是前几句的内容。这样我们便能理解整个句子或是段落所表达的内容。循环神经网络便是采用的与此同样的原理。 循

  • 「持续更新中」最近浏览的网站心得总结2021-08-15 20:04:15

    把看过好几次的博文列举一下,记录自己的阅读心得 首先是一些官方文档 https://tensorflow.google.cn/tutorials/structured_data/time_series   《动手学深度学习》(TF2.0版)这个真香 简单粗暴 TensorFlow 2这个单元化清晰     TensorFlow2.0教程-Keras 快速入门   下面是文章

  • 27:RNN循环神经网络-LSTM的使用2021-08-09 19:00:32

    1:nn.LSTM    [注]h_size=c_size  

  • PyTorch LSTM,batch_first=True对初始化h0和c0的影响2021-08-09 12:29:39

    PyTorch LSTM,batch_first=True对初始化h0和c0的影响 batch_first=True会对LSTM的输入输出的维度顺序有影响,但是对初始化h0和c0的维度顺序没有影响,也就是说,不管batch_first=True还是False,h0和c0的维度顺序都是: https://www.cnblogs.com/picassooo/p/13637140.html 

  • Tesseract+OpenCV实现中英文字识别2021-08-06 22:05:03

    Tesseract的简单使用 一、概述二、OCR中英文识别三、整个工程代码以及三方库四、总结 一、概述 Tesseract是比较经典的OCR算法,且能够获得较好的识别效果。既有开源的算法代码可以使用,又有编译好的识别工具,可谓是相当不错了。如此,那得赶紧试试效果究竟如何了。我是使用win

  • PyTorch LSTM的参数详解以及输出详解2021-07-31 16:32:20

    双向LSTM中 output, h_n, c_n 状态详解 LSTM详解(经典之作) class torch.nn.LSTM(*args, **kwargs) 参数列表 input_size:x的特征维度 hidden_size:隐藏层的特征维度 num_layers:lstm隐层的层数,默认为1 bias:False则bih=0和bhh=0. 默认为True batch_first:True则输入输出的数据格

  • OCR学习2021-07-30 12:32:47

    OCR (Optical Character Recognition,光学字符识别) 在图像中提取文本? 先检测文字所在位置识别区域中的内容 场景文字检测(Connection Text Proposal Network, CTPN) CTPN网络架构: 首先用VGG模型来提取特征,用来生成很多候选框,再筛选掉一些不含有文字的候选框(相当于二分类任务,即

  • 深度学习之GRU网络2021-07-27 15:01:31

    1、GRU概述   GRU是LSTM网络的一种效果很好的变体,它较LSTM网络的结构更加简单,而且效果也很好,因此也是当前非常流形的一种网络。GRU既然是LSTM的变体,因此也是可以解决RNN网络中的长依赖问题。   在LSTM中引入了三个门函数:输入门、遗忘门和输出门来控制输入值、记忆值和输出值。

  • 基于LSTM与Transfomer的股票预测模型2021-07-21 14:30:24

    基于LSTM与Transfomer的股票预测模型 1 项目介绍 股票行情是引导交易市场变化的一大重要因素,若能够掌握股票行情的走势,则对于个人和企业的投资都有巨大的帮助。然而,股票走势会受到多方因素的影响,因此难以从影响因素入手定量地进行衡量。但如今,借助于机器学习,可以通过搭建网络

  • Keras深度学习之分层概念2021-07-21 12:31:18

    3.1 多层感知层简介 3.1.1 链接输入、输出的Dense层 Dense(8,input_dim=4,activation='relu') 第一个参数:输出神经元的个数 input_dim:输入神经元的个数 activation:激活函数 linear:默认值,输入神经元与权重计算得到的结果值 relu:主要用于隐藏层。rectifier函数 sigmoid:sigmo

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有