ICode9

精准搜索请尝试: 精确搜索
  • 在Java中流式传输图像格式转换和调整大小2019-07-08 10:09:21

    所以,假设我想在Java中将一些PNG重新编码为JPEG.图像具有极高的分辨率,例如10 000 x 10 000px.使用“标准”Java映像API编写器和读取器,您需要在某些时候将整个映像解码到RAM中,这会占用极大的RAM空间(数百MB).我一直在寻找其他工具如何做到这一点,我发现ImageMagick使用磁盘像素存

  • 用深度学习构造聊天机器人简介2019-07-06 19:00:45

                                                                                        聊天机器人(也可以称为语音助手、聊天助手、对话机器人等)是目前非常热的一个人工智能研发与产品

  • 如何在张量流中实现双向编码器?2019-07-06 05:57:07

    在Tensorflow中,所有编码器 – 解码器功能(https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py)使用RNN单元的单向实现. 如何在Tensorflow中实现双向编码器(http://arxiv.org/abs/1409.0473或类似系统),以便在编码器 – 解码器设置中同时学习

  • 使用装饰器编码自定义对象 – Python2019-07-03 23:45:11

    我正在寻找一种方法来使用类装饰器将自定义对象编码为Python中的dict,以提供应该作为参数包含在生成的dict中的变量的名称.使用dict,我可以使用json.dumps(custom_object_dict)来转换为JSON. 换句话说,想法是拥有以下@encoder类装饰器: @encoder(variables=['firstname', 'lastname

  • python – LabelEncoder – 反向并使用模型上的分类数据2019-07-01 18:46:40

    我正在做一个预测项目(为了好玩),基本上我从nltk中取出男性和女性名字,标签名称为“男性”或“女性”,然后获取每个名字的最后一个字母,最后使用不同的机器学习基于最后一个字母训练和预测性别的算法. 所以我们知道Python的sklearn不处理分类数据,因此我使用LabelEncoder将最后一个

  • 如何在JBoss-Netty中使用无限制的帧大小而不浪费内存?2019-06-26 11:51:18

    我探索netty以在VM之间传递对象.我使用ObjectEncoder& ObjectDecoder分别用于序列化这些. 我很快发现这个解决方案仅限于最大1MB大小的对象.由于我打算传达更大的对象,并且我不打算限制此大小,因此我使用Integer.MAX_VALUE来设置最大帧长度. 不幸的是,看起来这个值被用来初始化一些

  • 使用MediaCodec和Surface进行Android编码2019-06-11 23:13:16

    我一直在通过MediaCodec将视频直接渲染到我的UI中从SurfaceView获取的Surface.这非常有效. 我现在正在尝试使用MediaCodec作为编码器.作为测试,我想渲染到Surface(如上所述)并通过配置为编码器的MediaCodec的不同实例进行环回. 我看到编码器的createInputSurface()方法.我想我希望

  • Encoder-Decoder LSTM模型对家庭用电进行多步时间序列预测(多变量输入)2019-06-11 21:48:16

    在本节中,我们将更新上一节中开发的编码器-解码器LSTM,使用8个时间序列变量中的每一个来预测下一个标准周的每日总功耗。我们将通过将每个一维时间序列作为单独的输入序列提供给模型来实现这一点。LSTM将依次创建每个输入序列的内部表示,这些输入序列将由解码器一起解释。使用多

  • Adobe Media Encoder如何添加到Ae队列里?2019-06-11 16:49:47

    Adobe Media Encoder中文破解版是一款视频和音频编码应用程序,简称“ME”,可以辅助AE,PR做一些视频转码、导出、提取的工作,那么Adobe Media Encoder如何在ae里添加列队,相信很多朋友们对这个问题很感兴趣,接下来小编就带了Media Encoder使用教程,一起看看吧!1.打开软件,新建合成,点击“

  • 从Encoder-Decoder(Seq2Seq)理解Attention的本质2019-05-23 18:50:27

    0. 目录 1. 前言 2. Transformer模型结构 2.1 Transformer的编码器解码器 2.2 输入层 2.3 位置向量 2.4 Attention模型 3. 总结   1. 语言模型 2. Attention Is All You Need(Transformer)算法原理解析 3. ELMo算法原理解析 4. OpenAI GPT算法原理解析 5. BERT算法原理解析

  • android – 如何设置MediaCodec创建的编码器缓冲区大小2019-05-17 18:13:28

    我正在尝试使用Nexus来测试Mediacodec API的编码.我可以看到编码器提供的inputBuffers是119040(通过记录inputBuffers.capacity).但框架的大小,即输入,是460800.我在inputBuffer.put上收到错误消息,缓冲区溢出.所以我打算将输入缓冲区设置为460800.我能找到的API是BufferInfo.set.

  • 使用深度学习打造智能聊天机器人2019-05-15 12:53:15

                                         聊天机器人(也可以称为语音助手、聊天助手、对话机器人等)是目前非常热的一个人工智能研发与产品方向。很多大的互联网公司重金投入研发相关技术,并陆续推出了相关产品,比如苹果Siri、微软Cortana与小

  • 吴裕雄 python 机器学习——数据预处理二元化OneHotEncoder模型2019-05-02 11:50:19

    from sklearn.preprocessing import OneHotEncoder#数据预处理二元化OneHotEncoder模型def test_OneHotEncoder(): X=[[1,2,3,4,5], [5,4,3,2,1], [3,3,3,3,3,], [1,1,1,1,1]] print("before transform:",X) encoder=OneHotEncoder(spars

  • 使用Autoencoder进行降维2019-04-23 20:51:43

    #coding=utf-8import tensorflow as tfimport matplotlib.pyplot as pltfrom tensorflow.examples.tutorials.mnist import input_data#需要自己从网上下载Mnist数据集mnist = input_data.read_data_sets("D:/MNIST", one_hot=False)learning_rate = 0.01training_epochs = 10ba

  • SegNet 理解与文章结构2019-04-21 19:50:12

      SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation 发表于2016年,作者 Vijay Badrinarayanan, Alex Kendall, Roberto Cipolla, Senior Member 模型结构:   创新点: 在 encoder 部分的最大池化操作时记录了最大值所在位置(索引),然后在 decoder 时

  • 从Encoder到Decoder实现Seq2Seq模型2019-04-06 10:50:59

    首发于机器不学习关注专栏写文章从Encoder到Decoder实现Seq2Seq模型天雨粟模型师傅 / 果粉​关注他300 人赞同了该文章更新:感谢@Gang He指出的代码错误。get_batches函数中第15行与第19行,代码已经重新修改,GitHub已更新。前言好久没有更新专栏,今天我们来看一个简单的Seq2Seq实

  • 从Encoder到Decoder实现Seq2Seq模型2019-04-06 10:50:37

    首发于机器不学习关注专栏写文章从Encoder到Decoder实现Seq2Seq模型天雨粟模型师傅 / 果粉​关注他300 人赞同了该文章更新:感谢@Gang He指出的代码错误。get_batches函数中第15行与第19行,代码已经重新修改,GitHub已更新。前言好久没有更新专栏,今天我们来看一个简单的Seq2Seq实

  • FFmpeg编解码处理3-视频编码2019-03-28 08:51:49

    本文为作者原创,转载请注明出处:https://www.cnblogs.com/leisure_chn/p/10584937.html FFmpeg编解码处理系列笔记: [0]. FFmpeg时间戳详解 [1]. FFmpeg编解码处理1-转码全流程简介 [2]. FFmpeg编解码处理2-编解码API详解 [3]. FFmpeg编解码处理3-视频编码 [4]. FFmpeg编解码处理4-音

  • 论文阅读-attention-is-all-you-need2019-03-26 21:48:40

    1结构介绍 是一个seq2seq的任务模型,将输入的时间序列转化为输出的时间序列。 有encoder和decoder两个模块,分别用于编码和解码,结合时是将编码的最后一个输出 当做 解码的第一个模块的输入 encoder模块有两个操作: self-attention、feed-forward decoder模块有三个操作:self-attention

  • java获取音频时长 大小2019-03-07 16:50:34

    jave1.0.3 maven依赖代码 <dependency> <groupId>com.github.dadiyang</groupId> <artifactId>jave</artifactId> <version>1.0.3</version> </dependency> 来自阿里云maven仓库 https://maven.aliyun

  • wpf 获取Image的图片并保存到本地2019-03-04 10:55:02

    XMAL代码如下: <Image Name="ImageToSave" Source="Images/pic_bg.png" Grid.RowSpan="3" Grid.ColumnSpan="3"  ></Image> C#代码如下: SaveFileDialog sfd = new SaveFileDialog();sfd.Filter = "Image Files (*.bmp, *.p

  • pandas 下的 one hot encoder 及 pd get dummies 与 sklearn prepr2019-03-03 17:44:27

    sklearn.preprocessing 下除了提供 OneHotEncoder 还提供 LabelEncoder(简单地将 categorical labels 转换为不同的数字); 1. 简单区别 Panda’s get_dummies vs. Sklearn’s OneHotEncoder() :: What is more efficient? sklearn.preprocessing 下的 OneHotEncoder 不可以直接处

  • Transformer中的Self-Attention2019-02-27 21:49:12

    Transformer Transformer是Google的论文《Attention is All You Need》种提出的结构。读完论文之后对于Transformer的细节还是搞不清楚,查阅了很多解读文章,并结合代码终于算是弄得算比较清楚了。我现在尝试结合图片的方式对Transformer的工作流程进行梳理,图片基本上都来自于这个blog

  • 学习笔记CB014:TensorFlow seq2seq模型步步进阶2019-02-18 20:00:32

    神经网络。《Make Your Own Neural Network》,用非常通俗易懂描述讲解人工神经网络原理用代码实现,试验效果非常好。 循环神经网络和LSTM。Christopher Olah http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 。 seq2seq模型基于循环神经网络序列到序列模型,语言翻译、

  • [生成对抗网络GAN入门指南](2)理解生成对抗网络2019-01-29 17:53:50

    一. Generative Model 生成新数据应用: 生成超高解析度成像,将低分辨率的照片转化成高分辨率; 艺术创作:图像转换、文字到图像的转换;消费市场。   二. Auto-Encoder 将输入先进行编码,然后经过多层感知器的神经网络,相当于进行了降维和数据压缩。 而在生成模型中,我们仅适用压缩后编

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有