ICode9

精准搜索请尝试: 精确搜索
  • seq2seq模型概述2021-06-11 12:31:40

    采用seq2seq序列到序列模型 Seq2Seq模型简介 Seq2Seq模型是输出的长度不确定时采用的模型,这种情况一般是在机器翻译的任务中出现,将一句中文翻译成英文,那么这句英文的长度有可能会比中文短,也有可能会比中文长,所以输出的长度就不确定了。如下图所,输入的中文长度为4,输出的

  • NLP(十九):基于seq2seq-attention的对话系统2021-05-30 15:36:10

    参考了pytorch官方文档:https://pytorch.org/tutorials/beginner/chatbot_tutorial.html 一、概述 使用pycharm编写项目,代码分为四个文件:process.py、neural_network.py、train.py、evaluate.py。 先大致说一下搭建chatbot的思路吧,其实很简单:这里的chatbot是基于带Luong attention

  • SParC: Cross-Domain Semantic Parsing in Context 论文解读2021-05-23 10:01:20

      前言:SParC是一个基于 Spider 数据集扩展的有上下文依赖的对话是 Text-to-SQL 数据集。不同于 Spider 一句话 对应一个最终 SQL,SParC 通常需要通过多轮对话来实现用户的查询意图,并且在交互过程中,用户会省略很多之前提到的信息,或者新增、修改之前提到过一些内容,使得该任务更具

  • 5.11 Seq2seq +Attention可视化2021-05-21 21:57:19

    文章目录 1.Seq2Seq数学公式 2、添加Attention数学公式 参考 1.Seq2Seq Sequence-to-sequence 模型(以下简称 Seq2Seq)是一种深度学习模型,其论文《Sequence to Sequence Learning with Neural Networks》由谷歌的同学于 2014 年发表于 NIPS 会议,目前已有超过 9400 次的引

  • 基于seq2seq架构实现短文本翻译2021-05-08 12:30:56

    数据集 下载地址: https://download.pytorch.org/tutorial/data.zip 数据预览–部分 She folded her handkerchief neatly. Elle plia soigneusement son mouchoir. She folded her handkerchief neatly. Elle a soigneusement plié son mouchoir. She found a need and sh

  • 【RNN】剖析RNN 之 从RNN-(Simple|LSTM) 到 序列生成 再到 seq2seq框架(encoder-decoder,或称为seq2seq)2021-04-28 14:02:09

    前言 最近在搞一个多标签分类的项目,发现多标签分类问题中的多标签难点可以转化为序列生成问题(如下图,引自论文《Ensemble Application of Convolutional and Recurrent Neural Networks for Multi-label Text Categorization》[1]),论文中思想讲的很透彻,图也一目了然,但是RNN的具体

  • 基于seq2seq文本生成的解码/采样策略2021-04-22 19:05:21

    基于seq2seq文本生成的解码/采样策略 目录基于seq2seq文本生成的解码/采样策略1. 贪婪采样2. 随机采样3. 参考 基于Seq2Seq模型的文本生成有各种不同的decoding strategy。文本生成中的decoding strategy主要可以分为两大类: Argmax Decoding: 主要包括beam search, class-factore

  • DL - RNN2021-04-05 09:05:59

    文章目录 seq2seq相关资料 RNN: recurrent neural network,递归(循环)神经网络 优点 输入是多个且有序的,可以模拟人类阅读的顺序 去读取文本或别的序列化数据。通过隐藏层神经元的编码,上一个隐藏层神经元的信息,可以传递到下一个隐藏层神经元,因而形成一定记忆能力,能够更好

  • CS224n-2019 -《Neural Machine Translate, seq2seq with Attention》2021-03-23 22:03:45

    CS224n-2019的第八讲《Neural Machine Translate, seq2seq with Attention》 Machine Translate历史 Statistics MT这是基于统计的机器翻译,核心思想是最大化一个概率分布,最终拆分成两个部:一是翻译模型,二是语言模型。(这块没有弄懂)其中需要大量的人工操作,非常的复杂。之前的go

  • Pytorch基础教程(8): 强化——混合前端的seq2seq模型部署2021-03-13 12:58:02

    本节将介绍如何把seq2seq模型转换为PyTorch可用的前端混合Torch脚本。我们要转换的模型来自于聊天机器人教程Chatbot tutorial。 1. 混合前端 在一个基于深度学习项目的研发阶段, 使用像PyTorch这样即时eager、命令式的界面进行交互能带来很大便利。 这使用户能够在使用Pytho

  • 意图识别及槽填充联合模型cnn-seq2seq2021-03-01 10:04:21

        此分类模型是来自序列模型Convolutional Sequence to Sequence Learning,整体构架如上图所示。 原论文是用来做语言翻译,这里我将稍微修改用来做问答中的slot filling和intent detection联合建模。 本项目中的图片和原始代码是改自https://github.com/bentrevett/py

  • 【TensorFlow】Seq2Seq模型的代码实现 & attention机制2021-02-23 19:57:16

    import tensorflow as tf SRC_TRAIN_DATA = '/path/to/data/train.en' # 源语言输入文件 TRG_TRAIN_DATA = '/path/to/data/train.zh' # 目标语言输入文件 CHECKPOINT_PATH = '/path/to/seq2seq_ckpt' HIDDEN_SIZE = 1024 NUM_LAYERS = 2 SRC_VOCAB_SIZE =

  • Attention2021-02-17 17:32:20

    Seq2Seq Model 缺陷: ​ 由于Decoder的输入是且仅是Encoder输出在最后的\(H_m\), 因此可能会丢失部分前面的信息, 并在序列越长此问题越严重. Attention 如何改进Seq2Seq model的遗忘问题 SimpleRNN + Attention: \(S_0\)现在不仅是最后一个\(h_m\), 而是对于每一个\(h_i\)都给予

  • 注意力(Attention)与Seq2Seq的区别2021-02-13 14:01:04

    什么是注意力(Attention)?   注意力机制可看作模糊记忆的一种形式。记忆由模型的隐藏状态组成,模型选择从记忆中检索内容。深入了解注意力之前,先简要回顾Seq2Seq模型。传统的机器翻译主要基于Seq2Seq模型。该模型分为编码层和解码层,并由RNN或RNN变体(LSTM、GRU等)组成。编码矢量是从模

  • Seq2Seq and Attention(二)2021-01-26 18:02:22

    声明:本文是学习https://lena-voita.github.io/nlp_course/seq2seq_and_attention.html的笔记,小伙伴也可以自行跳转学习原文。 在之前的文章中我们介绍了什么是Seq2Seq,现在我们来介绍一下什么是Attention。 Atteintion 问题 固定的编码器表示问题 固定的源信息表示是不理想的:

  • Seq2Seq2021-01-25 15:01:03

    什么是Seq2Seq Seq2Seq模型,全称Sequence to sequence,由Encoder和Decoder两个部分组成,每部分都是一个RNNCell(RNN、LSTM、GRU等)结构。Encoder将一个序列编码为一个固定长度的语义向量,Decoder将该语义向量解码为另一个序列。输入序列和输出序列都可以是不定长序列。 Seq2Seq可以用

  • 基于Seq2Seq的文本生成2021-01-08 17:34:24

    文章目录 1. seq2seq 框架2. seq2seq任务类型4. 文本生成任务的评价方法4.1 BLEU4.2 ROUGE4.2.1 ROUGE-N (将BLEU的精确率优化为召回率)4.2.2 ROUGE-L (将BLEU的n-gram优化为公共子序列)4.2.3 ROUGE-W (ROUGE-W 是 ROUGE-L 的改进版)4.2.4 ROUGE-S (Skip-Bigram Co-Occurrence Sta

  • seq2seq2020-12-27 11:02:26

    Seq2seq的思想和应用 Encoder-decoder第一篇:Learning Phrase Representations using RNN Encoder-Decoder for Statis Machine Translation Seq2seq:sequence to sequence Learning with Neural Networks 知识图谱增加可解释性:seq2seq interpretability knowledge graph Train

  • 人机对话seq2seq+attention_CodingPark编程公园2020-12-23 15:33:37

    人机对话 概述 我做过的这种生成式的项目有两个 **人机对话(智能问答)分为问(encoder)|答(decoder)**两个阶段 seq2seq+attention

  • pytorch官方教程3 translation with seq2seq and attention2020-11-29 18:03:49

    前言 在看李宏毅的hw8:seq-to-seq时,发现要动手完成下面任务,懵了。 我还是个初学者,虽然我最近看了李宏毅关于语音辨识部分,也看完hw4,但代码能力还是0。 网上找不到这次作业任务的实现,找到pytorch官网关于seq-to-seq的实现,先学一下。 资料 知识都是借鉴和查出来的。 pytorch官

  • 基于深度学习Seq2Seq框架的技术总结2020-11-23 20:28:30

    随着互联网经济的普及定位技术的快速发展,人们在日常生活中产生了大量的轨迹数据,例如出租车的GPS数据、快递配送员PDA产生的轨迹数据等。轨迹数据是一种典型的时空数据(Spatial-Temporal Data),是按照时间顺序索引且空间变化的一系列数据点。在时空数据的数据挖掘中,我们也会大量

  • pytorch 实现 Seq2Seq 机器翻译2020-08-09 11:31:22

    本文主要介绍了用 pytorch 实现简单的 Seq2Seq 机器翻译任务,参考了 李宏毅老师的深度学习课程 的作业八,数据集也来自于此,视频课程可以在B站学习(https://www.bilibili.com/video/BV1JE411g7XF?p=53)。算法理论可以阅读论文"Sequence to Sequence Learning with Neural Networks",

  • 预训练模型 | MASS:更适合seq2seq类任务2020-06-28 16:56:19

        参考: 超越BERT、GPT,微软提出通用预训练模型MASS   微软在ICML 2019提出全新的通用预训练方法MASS,在序列到序列的自然语言生成任务中全面超越BERT和GPT。在微软参加的WMT19机器翻译比赛中,MASS帮助中-英、英-立陶宛两个语言对取得了第一名的成绩。   MASS: Masked Seque

  • 基于Seq2Seq的文本纠错数据集构造2020-03-02 14:43:40

    构造方法:删除缩写词,替换相似词。 def read_samples_by_string(self, path): for tokens in self.read_tokens(path): source = [] target = [] for token in tokens: target.append(token) # Randomly dropout some

  • 动手入门深度学习笔记-机器翻译(注意力机制与Seq2seq模型,Transformer)2020-02-19 21:44:31

    机器翻译 1.定义 将一段文本从一种语言自动翻译为另一种语言, 用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 2.code 实现 ## 机器翻译定义 """ 主要是将一段文本从一种语言自动翻译成另

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有