ICode9

精准搜索请尝试: 精确搜索
  • Transformer自下而上理解(5) 从Attention层到Transformer网络2021-05-27 21:08:29

    本文参考Wang Shusen老师的教学视频:https://www.youtube.com/watch?v=aJRsr39F4dI&list=PLvOO0btloRntpSWSxFbwPIjIum3Ub4GSC&index=2 1. Multi-Head (Self-)Attention Layer 在上一篇文章中我们介绍了Attention层和Self-Attention层,计算逻辑大同小异。只不过之前介绍的都只是Si

  • A Multi-task Ensemble Framework for Emotion, Sentiment and Intensity Prediction2021-05-20 11:58:50

    文章目录 前提Motivation方法概述方法详述DatasetsEvaluation Benchmark DatasetsEvaluation Transfer Learning Datasets ApproachEncoder with Category Name EmbeddingMulti-Task DecodersType 1Type 2Type 3 Experiments非增量学习增量学习 想法 前提 这一篇论文

  • AI+无线通信总结——初赛赛题2021-05-08 15:58:01

    赛题任务大赛将提供真实无线通信场景下采集的信道数据,鼓励参赛选手采取数据驱动的思路和采用机器学习的方法来设计符合真实信道数据的低复杂度神经网络结构和鲁棒的AI算法,以此提升在不同压缩尺度下的信道信息恢复的准确度。针对真实大规模天线阵列通信信道,采集到的数据是32万个信道

  • 基于seq2seq架构实现短文本翻译2021-05-08 12:30:56

    数据集 下载地址: https://download.pytorch.org/tutorial/data.zip 数据预览–部分 She folded her handkerchief neatly. Elle plia soigneusement son mouchoir. She folded her handkerchief neatly. Elle a soigneusement plié son mouchoir. She found a need and sh

  • 关于深度学习中的注意力机制2021-05-07 17:06:45

    最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介

  • 论文阅读:TRAINING ASR MODELS BY GENERATION OF CONTEXTUAL INFORMATION2021-04-16 16:03:34

    (icassp2020)论文阅读:TRAINING ASR MODELS BY GENERATION OF CONTEXTUAL INFORMATION 下载链接:https://arxiv.org/abs/1910.12367 主要思想:        利用海量的弱监督数据和部分常规的标注数据进行e2e模型训练。【这里的弱监督数据主要指的是仅含有上下文相关文本的音频数据(E

  • 图片与base64转换2021-04-12 20:10:45

    ` /** * @Description: base64字符串转化成图片 * @Param: * @return: * @throws Exception * @author: hw * @date: 2021/4/12 15:45 */ public static boolean GenerateImage(String imgStr, String path) { //对字节数组字符串进行Base64解码并生成图片 if (imgStr ==

  • TransCenter解读2021-04-06 12:58:40

    本文介绍这篇出自MIT的多目标跟踪方向的新论文,其将transformer和基于Center的目标检测与跟踪联合到一起,设计了一个全新的多目标跟踪框架,超越了此前的TransTrack和TrackFormer,一举冲到了SOTA方法精度的最前列,不过这篇文章从MOT Challenge上的指标来看,速度并不快。 简介 此前

  • CS224n-2019 -《Neural Machine Translate, seq2seq with Attention》2021-03-23 22:03:45

    CS224n-2019的第八讲《Neural Machine Translate, seq2seq with Attention》 Machine Translate历史 Statistics MT这是基于统计的机器翻译,核心思想是最大化一个概率分布,最终拆分成两个部:一是翻译模型,二是语言模型。(这块没有弄懂)其中需要大量的人工操作,非常的复杂。之前的go

  • 硬件解码器API接口对比(google decoder-allwinner decoder)2021-03-21 16:01:57

    Google Decoder API /* Decoder client interface. */ typedef void* ClientInst; /* Opaque pointer to the client. */ /* Function to notify the client that decoder has successfully initialized. */ typedef void ClientInitialized(ClientInst inst); /* Function

  • Pytorch基础教程(8): 强化——混合前端的seq2seq模型部署2021-03-13 12:58:02

    本节将介绍如何把seq2seq模型转换为PyTorch可用的前端混合Torch脚本。我们要转换的模型来自于聊天机器人教程Chatbot tutorial。 1. 混合前端 在一个基于深度学习项目的研发阶段, 使用像PyTorch这样即时eager、命令式的界面进行交互能带来很大便利。 这使用户能够在使用Pytho

  • Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation[翻译]2021-03-04 09:02:56

    引言 又为大家带来一篇经典论文的翻译,不过由于最近忙于找工作,所以本文只翻译了核心的部分,未完待续,有时间会补全的。 摘要 在本文中,我们提出了一个新的神经网络模型,叫RNN编码器-解码器模型,它包含两个RNN。一个RNN编码符号序列到定长向量,另一个解码该向量到另一个符号序列。编

  • transformer2021-02-28 16:32:46

    https://www.cnblogs.com/zingp/p/11696111.html 阅读目录 1 模型的思想 2 模型的架构 3 Embedding 3.1 Word Embedding 3.2 Positional Embedding 4 Encoder 4.1 Muti-Head-Attention 4.1.1 Self-Attention 4.1.2 Add & Norm 4.2 Feed-Forward Network 5 Decoder 5.1 Mask-Multi

  • ndk ffmpeg2021-02-17 23:05:11

    参考这个 https://blog.csdn.net/bobcat_kay/article/details/80889398 下载r17 的ndk(按文章版本)和最新的ffmpeg   建立 build.sh #!/bin/bash NDK=/home/wang/program/android-ndk-r19c ADDI_LDFLAGS="-fPIE -pie" ADDI_CFLAGS="-fPIE -pie -march=armv7-a -mfloat-abi=softf

  • Transformer 详解2021-02-15 10:01:43

    Transformer 是谷歌大脑在 2017 年底发表的论文 attention is all you need 中所提出的 seq2seq 模型。现在已经取得了大范围的应用和扩展,而 BERT 就是从 Transformer 中衍生出来的预训练语言模型 这篇文章分为以下几个部分 Transformer 直观认识Positional EncodingSelf Atte

  • Python 利用深度学习做文本摘要2021-02-06 19:01:41

    前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。 PS:如有需要Python学习资料的小伙伴可以点击下方链接自行获取 python免费学习资料、代码以及交流解答点击即可加入 介绍 “我不想要完整的报告,只需给我一个结果摘要”

  • NLP教程笔记:语言模型的注意力2021-02-06 11:31:32

    NLP教程 TF_IDF 词向量 句向量 Seq2Seq 语言生成模型 CNN的语言模型 语言模型的注意力 目录 NLP教程自然语言模型注意力Seq2Seq Attention 注意力机制翻译代码思考 自然语言模型注意力 如果说在视觉上,机器可以注意到某一个区域,那么在语言上,就是注意到某一个或多个词汇。

  • Netty的Decoder Handler 处理流程2021-02-01 15:29:03

    数据从客户端传递为ByteBuf类型,可以先经过实现自定义 ByteToMessageDecoder 实现类对ByteBuf数据进行初步转换(比如字符串),如下代码实现将ByteBuf数据转为String数据, public class MyDecoder extends ByteToMessageDecoder { //自定义解码器 @Override public void deco

  • Seq2Seq2021-01-25 15:01:03

    什么是Seq2Seq Seq2Seq模型,全称Sequence to sequence,由Encoder和Decoder两个部分组成,每部分都是一个RNNCell(RNN、LSTM、GRU等)结构。Encoder将一个序列编码为一个固定长度的语义向量,Decoder将该语义向量解码为另一个序列。输入序列和输出序列都可以是不定长序列。 Seq2Seq可以用

  • 基于Attention的机器翻译模型(Visualizing A Neural Machine Translation Model)2021-01-24 21:03:47

    参考: https://blog.csdn.net/qq_41664845/article/details/84245520#t5 https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/ 论文题目:Neural Machine Translation by Jointly Learning to Align and Translate 论文

  • 【学习笔记】Transformer2021-01-12 10:29:56

    一、Transformer结构 Transformer模型,由6个Encoder和6个Decoder组成,输入和输出通过同一个训练好的词嵌入层(Word Embedding)将输入字符转换为维度d的向量。 1、Encoder Transformer对编码器(Encoder)与解码器(Decoder)两端的序列分别添加位置编码(Positional Encoding)。之后,编码经

  • 微信小程序-解析encryptedData, 用户信息,手机号2021-01-08 10:00:26

     第一步. 调用wx.login 获取code 第二步. 根据code去获取session_key get请求 https://api.weixin.qq.com/sns/jscode2session 第三步, 将接口返回的session_key.  wx接口的iv, encryptedData,  放进工具类解密 手机号, 用户信息都已经测试过,可以使用 解密方法如下

  • 手把手教你用Keras实现英文到中文机器翻译 seq2seq+LSTM2021-01-06 10:32:37

    原文链接:https://blog.csdn.net/qq_44635691/article/details/106919244 该模型实现的是英文到中文的翻译,下图为了更好展示模型架构借用大佬的图(这里没有用到Embeddings): 本文完整代码:Github 目录 一、处理文本数据 1.获得翻译前后的句子  2.创建关于 字符-index 和 in

  • 重学Swift第十篇:Codable2020-12-30 23:59:05

    文章目录 解码JSONDecoder源码解析_JSONDecoder 编码 Codable可以将自身与外部表示形式(例如JSON)进行互相转换的类型。 public protocol Encodable { func encode(to encoder: Encoder) throws } public protocol Decodable { init(from decoder: Decoder) throws } p

  • ijkplayer的read_thread线程分析(三)2020-12-24 11:29:06

    目录   简介: 流程图: 代码分析: 1、avformat_open_input 2、avformat_find_stream_info 3、stream_component_open() 4、av_read_frame​ 5、主要循环 简介: 这个线程主要工作: 1)打开URL流媒体 2)解析视频流的相关信息 3)创建音视频解码器 4)创建SDL刷新线程 2)循环数据读取Packet,存入

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有