ICode9

精准搜索请尝试: 精确搜索
  • 李宏毅深度学习笔记06---word embedding(词嵌入也称词向量)2020-06-14 21:57:36

    1.one-of-N encoding 与word embedding    2.Word Embedding (1)生成词向量是无监督的       (2)word embedding 的含义 <1>在没有监督的情况下通过阅读大量文档来机器学习单词的含义 <2>一个词可以通过上下文来理解 (3)如何利用上下文 <1>Count based  如果两个单词wi,w

  • NN[神经网络]中embedding的dense和sparse是什么意思?2020-06-09 19:08:32

    NN[神经网络]中embedding的dense和sparse是什么意思?   dense 表示稠密,在embedding中的dense时:     假设我们有这样一个句子: “北京是北京”,我们将其数值化表示为:           dense embedding,需要你讲它转换成onehot表示:               假设embedding对输出size

  • CF1354C Simple Polygon Embedding(计算几何)2020-05-19 16:55:20

    题意: 给出一个正偶数边的多边形,计算它最小的外接正方形的边长。 题解: 草稿纸算一下就行,不会派的定义和调用C++内置的三角函数方法,花了不少时间。。。 #include<bits/stdc++.h> using namespace std; #define PI acos(-1) int main() { int t; cin>>t; while (t--

  • 变分深度嵌入(Variational Deep Embedding, VaDE)2020-05-13 15:55:27

    变分深度嵌入(Variational Deep Embedding, VaDE) 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/     这篇博文主要是对论文“Variational Deep Embedding: An Unsupervised and Generative Approach to Clustering”的整理总结,阅读这篇博文的前提条件是:了解高斯混

  • 《ALBERT 论文解读》2020-05-10 10:06:16

      ALBERT 论文解读   NLP论文专栏里怎么可能没有关于BERT的论文呢,今天给大家介绍的就是google最近发的一个又一个秒杀各个数据集的模型ALBERT。 论文地址: https://openreview.net/pdf?id=H1eA7AEtvS​openreview.net github地址(中文预训练模型): brightmart/albert_zh​

  • CTR学习笔记&代码实现4-深度ctr模型 NFM/AFM2020-05-01 21:01:44

    这一节我们总结FM另外两个远亲NFM,AFM。NFM和AFM都是针对Wide&Deep 中Deep部分的改造。上一章PNN用到了向量内积外积来提取特征交互信息,总共向量乘积就这几种,这不NFM就带着element-wise(hadamard) product来了。AFM则是引入了注意力机制把NFM的等权求和变成了加权求和。 以下代码针

  • 《GraphSAGE: GCN落地必读论文》2020-04-29 16:08:08

    GraphSAGE: GCN落地必读论文   论文:Inductive Representation Learning on Large Graphs作者:William L. Hamilton, Rex Ying, Jure Leskovec来源:NIPS17 0. 碎碎念 PinSAGE( PinSage:第一个基于GCN的工业级推荐系统)为GCN落地提供了实践经验,而本文是PinSAGE的理论基础,同样

  • 源码阅读笔记 BiLSTM+CRF做NER任务(二)2020-04-28 09:01:46

    源码地址:https://github.com/ZhixiuYe/NER-pytorch 本篇正式进入源码的阅读,按照流程顺序,一一解剖。 一、流程图 二、详细步骤 1、数据预处理 1)将数据集从文件中加载出来,如果句子中出现了数字,会将其置零(可选),删除无用句。  2)转换标注模式,将iob1(数据集原有标注模式)转换为iob2,如果

  • 广告行业中那些趣事系列9:一网打尽Youtube深度学习推荐系统2020-04-17 18:57:26

    最新最全的文章请关注我的微信公众号:数据拾光者。   摘要:本篇主要分析Youtube深度学习推荐系统,借鉴模型框架以及工程中优秀的解决方案从而应用于实际项目。首先讲了下用户、广告主和抖音这一类视频平台三者之间的关系:就是平台将视频资源作为商品免费卖给用户,同时将用户作为商品

  • NLP面试问题个人总结-词向量技术2020-03-16 15:51:09

    (引用自:https://zhuanlan.zhihu.com/p/49271699  ,本文作个人学习用) 1 语言模型介绍 什么是语言模型?其实看上面这张PPT上扣下来的图就明白了,为了能够量化地衡量哪个句子更像一句人话,可以设计如上图所示函数,核心函数P的思想是根据句子里面前面的一系列前导单词预测后面跟哪个单词的

  • SVD、Word2Vec、神经网络计算Embedding的区别2020-03-10 23:04:06

    SVD、Word2Vec和神经网络的嵌入层都可以用来计算Embedding,这其中有什么区别,个人谈谈对它们的理解,欢迎拍砖。   如果采用Negative Sampling方式计算Word2Vec和SVD,其实三者本质上没有任何区别,都是用N个1*K的向量去乘K*N的矩阵(N可以简单理解为物品数/用户数,K为Embedding维数),然后根据

  • tf.nn.embedding_lookup2020-02-27 20:44:12

    tf.nn.embedding_lookup(params, ids) params: 一个张量或者数组 ids: 一个整型列表 该函数的目的是从params矩阵中返回行索引=ids中的元素的行向量组成矩阵 import tensorflow as tf table = tf.Variable(tf.random_normal([10, 5])) b = tf.nn.embedding_lookup(table, [

  • transfomer2020-02-25 20:36:00

    Transformer 下图展示了Transformer模型的架构,与seq2seq模型相似,Transformer同样基于编码器-解码器架构,其区别主要在于以下三点: 1.Transformer blocks:将seq2seq模型重的循环网络替换为了Transformer Blocks,该模块包含一个多头注意力层(Multi-head Attention Layers)以及两个po

  • 跨语言评测数据集之XNLI介绍2020-02-23 21:05:51

    目录 一、前言 二、XNLI介绍 三、评测任务介绍 四、实验 一、前言 对于跨语言理解及与稀缺语言相关的迁移学习而言,一个评测数据集不可或缺。2018年,Facebook的提出了XNLI(Cross-Lingual Natural Language Inference)这个数据集,旨在提供一个统一的评测数据集以方便相关研究。NLI,

  • An Intuitive Explanation of GraphSAGE2020-02-03 22:03:13

    By Rıza Özçelik Original post: https://towardsdatascience.com/an-intuitive-explanation-of-graphsage-6df9437ee64f    DeepWalk is a transductive algorithm, meaning that, it needs the whole graph to be available to learn the embedding of a node. Thus, w

  • Embedding一下看清楚2020-01-31 18:03:05

    原因就是你没找到合适的教程。如果这篇你看不明白,关了,下一篇。 embedding层有什么用 首先,embedding是为了处理文字的理解。让机器能够理解一句话的意思: 灰白灰会挥发。一句话,6个字。 但是只有五种 白,灰,会,挥,发。 编码 我们需要将汉字表达成网络认识的数字,比如我用整数表达。

  • DeepCTR v0.7.1 版本更新说明2020-01-28 22:09:28

    hello大家好, 自deepctr v0.7.0在去年11月底更新后,由于个人的一些原因没能及时的跟进和解答朋友们在github issue区,DeepCTR交流群以及通过邮件的方式提出的相关问题,这里先说一声抱歉,希望没有影响到朋友们的学习和工作。 放假回家在家里躺平放空若干天后,总算有心情打开电脑改

  • NLP笔记(word embedding)2020-01-28 15:55:06

    目录 word embedding 语言表示 语言模型 词的分布式表示 word2vec 以前的word嵌入方法在今天仍然很重要 Word2Vec等方法的局限 针对NLP中的一些基本概念和知识,做一些摘记 word embedding 语言表示 语言表示研究的是如何把自然语言文本转化为可以被算法模型处理的数据 目

  • Unsupervised Learning: Word Embedding2020-01-27 11:04:00

    Unsupervised Learning: Word Embedding Word Embedding 是 Dimension Reduction 的一种应用。 要用一个vector来表示一个word,有什么方法呢: 1-of-N Encoding: 每一个词汇对应vector的一维,如: 这种方式没法体现出word之间的关系,无法表达出语义 Word Class: 这其实就是聚类

  • 百分点认知智能实验室出品:深度迁移学习十八问2020-01-22 22:57:10

    编者按 深度迁移学习是基于深度神经网络的迁移学习方法,BERT通过预训练模型达到深度迁移学习的效果,自从2018年底BERT横空出世以来,就以势不可挡的姿态横扫了众多榜单,甚至在阅读理解任务SQuAD 中超越人类水平。BERT在公检法、媒体出版、军工、快消零售等工业界也迅速落地,如百分点智能

  • 论文阅读 | Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks2019-12-11 22:52:10

      简述 在文本语义相似度等句子对的回归任务上,BERT , RoBERTa 拿到sota。 但是,它要求两个句子都被输入到网络中,从而导致巨大开销:从10000个句子集合中找到最相似的sentence-pair需要进行大约5000万个推理计算(约65小时)。 BERT不适合语义相似度搜索,也不适合非监督任务,比如聚类。 解

  • c-保存复杂的脚本对象的状态2019-12-08 00:56:16

    在C语言中,我有以下两个类(使用Boost)公开给Python: struct Foo { // Empty }; struct FooContainer { // I use boost::shared_ptr for compatibility with Boost.Python vector<boost::shared_ptr<Foo>> foos_; }; 在Python方面,我可能会创建一种特殊的Foo类型,它

  • php-如何在不嵌入的情况下使用TCPDF在PDF中使用Arial2019-12-02 04:32:04

    我已成功将字体Arial添加到TCPDF,但是由于它嵌入了字体,因此文件大小很大.我本以为Arial是绝大多数用户计算机上的标准字体,那么有没有办法通过使用Arial(如果可用),使用Helvetica(如果没有),然后使用无衬线字体作为备用字体来工作呢?解决方法:您可以对字体进行子集设置,该字体仅嵌

  • Graph-GraphSage2019-11-16 19:02:53

    MPNN很好地概括了空域卷积的过程,但定义在这个框架下的所有模型都有一个共同的缺陷: 1. 卷积操作针对的对象是整张图,也就意味着要将所有结点放入内存/显存中,才能进行卷积操作。但对实际场景中的大规模图而言,整个图上的卷积操作并不现实。GraphSage[2]提出的动机之一就是解决这个问题

  • 关系抽取 --- Relation Extraction with Multi-instance Multi-label Convolutional Neural Networks2019-10-28 14:05:08

    这篇文章从另一个角度来解决Zeng 2015的问题,并且考虑了实体对的多关系的问题。 动机 Zeng 2015里面仅仅取置信度最高的instance,丢失信息。 在数据集中,有约18.3%的entity pair有多种relation, 其他方法均未考虑。 模型 针对以上的两个问题提出了两个解决方法: 对bag内部的所有se

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有