ICode9

精准搜索请尝试: 精确搜索
  • 深入理解深度学习——Item Embedding2022-01-31 16:31:00

    分类目录:《深入理解深度学习》总目录 随着Word Embedding在NLP很多领域取得不错的成果,人们开始考虑把这一思想推广到其他领域。从word2vec模型的实现原理可以看出,它主要依赖一条条语句,而每条语句就是一个序列。由此,只要有序列特征的场景应该都适合使用这种Embedding思想。下

  • transformer面试题的简单回答2022-01-31 12:58:55

    公众号 系统之神与我同在 1.Transformer为何使用多头注意力机制?(为什么不使用一个头) 答:多头可以使参数矩阵形成多个子空间,矩阵整体的size不变,只是改变了每个head对应的维度大小,这样做使矩阵对多方面信息进行学习,但是计算量和单个head差不多。 2.Transformer为什么Q和K使用不同的

  • DeepCTR2022-01-27 11:01:22

    DeepCTR框架,作者是阿里大佬浅梦  【官方文档:https://deepctr-doc.readthedocs.io/en/latest/】 主要是对目前的一些基于深度学习的点击率预测算法进行了实现,如PNN,WDL,DeepFM,MLR,DeepCross,AFM,NFM,DIN,DIEN,xDeepFM,AutoInt等,并且对外提供了一致的调用接口。 基于temsorflo

  • SimCSE: Simple Contrastive Learning of Sentence Embeddings(EMNLP 2021)2022-01-24 18:30:47

    SimCSE: Simple Contrastive Learning of Sentence Embeddings(EMNLP 2021) Motivation 无监督的SimCSE将句子过两次预训练模型得到两个不同的embedding作为正例对,将同一batch中的其他句子作为负例,模型在所有负例中预测出唯一的正例。有监督的SimCSE使用NLI数据,将蕴含关系对

  • 【转载】 使用t-SNE可视化图像embedding2022-01-22 15:36:08

    原文地址: https://zhuanlan.zhihu.com/p/81400277           ================================================         t-SNE(t-Distributed Stochastic Neighbor Embedding)是一种非常流行的非线性降维技术,主要用来对高维数据进行可视化。 本文将尽可能是使用简单的

  • Embedding在深度推荐系统中的3大应用方向2022-01-21 11:01:38

    Embedding在深度推荐系统中的3大应用方向 - 知乎这里是 「王喆的机器学习笔记」的第十七篇文章,之前已经有多篇专栏文章介绍了从Word2Vec,到Graph Embedding,再到深度学习CTR模型等等Embedding相关的知识。作为深度学习推荐系统模型和CTR模型中不可或缺的“基…https://zhuanlan.zh

  • 笔记:读Character-Aware Neural Language Models2022-01-11 19:36:04

    笔记:读Character-Aware Neural Language Models 作者:Kim Y et al.,AAAI 2016. 目录 Major Work Model Experiments Conclusion 1 Major Work 本文作者提出了一种利用subword子词信息的LM,子词信息主要通过一个字符级别的CNN提取,CNN的输出(character-level word embedding)作为使

  • nn.Embedding2022-01-10 21:03:43

    torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None) 其为一个简单的存储固定大小的词典的嵌入向量的查找表,意思就是说,给一个编号,嵌入层就能返回这个编号对应

  • 笔记:读Contextual String Embeddings for Sequence Labeling2022-01-09 13:35:16

    笔记:Contextual String Embeddings for Sequence Labeling 作者:Akbik A et al.,COLING 2018 目录 Major Work Typical Embedding Contextual String Embeddings Experiments Conclusion 1 Major Work 本文作者主要提出了一种新型embedding--上下文相关的字符级LM预训练得到的co

  • Embedding词向量2022-01-06 16:33:19

    Go straight to code! from tensorflow.keras.layers import Dense,Flatten, Embedding,Input from tensorflow.keras.models import Model from tensorflow.keras.preprocessing import sequence,text from tensorflow.keras.metrics import binary_accuracy from tensorflow

  • 基于tensorflow2.x的命名实体识别任务(三)2021-12-30 22:29:59

            上一篇博客介绍了文本分类任务的text_cnn模型,本篇博客主要介绍一下另一个常见的nlp任务,命名实体识别。简单来说,命名实体识别也可以算分类,但是它的不同点在它是对整个句子的每一个字做实体标签预测,也可以称为序列标注任务。 还是从以下几个步骤来简单说明一下命

  • 论文阅读笔记:[WSDM 2021]Bipartite Graph Embedding via Mutual InformationMaximization2021-12-30 20:59:51

    总结 利用生成对抗网络实现无监督的二部图嵌入方法,聚合时先聚合二跳邻居到一跳再聚合到自己身上以规避不同类型的问题 二部图嵌入方式 随机游走法重构法,包含协同过滤和特征聚合 本文的重点 以前的算法都只停留在比较局部的范围内处理信息,这篇提出的模型可以提取整体的属

  • 【论文笔记】VL-BERT: PRE-TRAINING OF GENERIC VISUAL- LINGUISTIC REPRESENTATIONS2021-12-28 16:04:15

    For tasks at the intersection of vision and language, there lacks such pre-trained generic feature representations. motivation:这篇文章和unified的思想很接近,希望训练出能够适应各类下游任务的通用表示模型。 简介 To better exploit the generic representatio

  • Raki的读paper小记:Bilateral Multi-Perspective Matching for Natural Language Sentences2021-12-26 19:34:47

    本文介绍了一种用于自然语言语句匹配的模型:BiMPM Reference:arXiv:1702.03814v3 [cs.AI] 14 Jul 2017 在三种任务上达到了sota paraphrase identification 释义识别natural language inference 自然语言推断answer sentence select 答案语句选择 模型 从图上可以看到整个模型

  • 深度学习 Embedding层 两大作用 - 转载2021-12-24 15:32:23

    1. one-hot概念 首先,我们有一个one-hot编码的概念。假设,我们中文,一共只有10个字。那么我们用0-9就可以表示完。 比如,这十个字就是“我从哪里来,要到何处去”。其分别对应“0-9”,如下: 我  从  哪  里  来  要  到  何  处  去 0    1    2    3   4    5   6

  • 李宏毅《机器学习》飞桨特训营(十)——循环神经网络(含作业:语句分类)2021-12-22 22:02:30

    李宏毅《机器学习》飞桨特训营(十) 一. 循环神经网络二. 词向量(Word Embedding)三. 作业:语句分类 一. 循环神经网络 视频(上)视频(下)PPT 内容总结1内容总结2 二. 词向量(Word Embedding) 在自然语言处理任务中,词向量(Word Embedding)是表示自然语言里单词的一种方法,即把每

  • python RandomTrees特征编码2021-12-22 18:01:56

    算法简介 通过构建随机森林,为变量进行编码: 首先训练一个随机森林的模型按照决策树的分叉,每个叶节点都会占用一个位置,比如下图就共有4个叶节点,因此最大的编码长度是4 如果这个特征A的值a,既可以匹配到第1个叶节点的位置,也可以到第3个叶节点的位置,那么这个值的编码就是[1,0,1,0]

  • 山东大学软件工程应用与实践----SENTA代码分析(八)2021-12-14 19:58:22

    2021SC@SDUSC   这篇代码接着继续分析 先来分析base-trainer.py这个文件  BaseTrainer 类  代码如图所示  1.运行环境初始化 2.program初始化 3.计算图网络导入 4.模型参数导入 5.运行(reader) 6.模型导出 :param params: 运行的基本参数设置 :param data_set_reader: 运

  • 论文解读-ACL-2021-ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer2021-12-09 21:31:24

    本篇论文美团已经给出了很详细的解读 论文:https://arxiv.org/abs/2105.11741 代码:https://github.com/yym6472/ConSERT 本文的想法思路也是一样即对比学习,主要创新点就是试了一些数据增强如对抗攻击、打乱词序、裁剪、dropout等等。通过一个数据增强模块,作用于Embedding层,为

  • prompt综述(截至2021.12.1)2021-12-08 14:01:44

    prompt的意义: 以前使用预训练模型都是Pre-train,Fine-tune的模式,这种模式的缺点就是当存在多个下游任务时,需要在上游复制多个模型,因为fine-tune后它们的参数因任务不同而不同。 如果有10个下游任务就要存储并训练10个上游模型,这样就很占空间和资源。 prompt采用Pre-trian,Promp

  • 【论文阅读】Beyond OCR + VQA: 将OCR融入TextVQA的执行流程中形成更鲁棒更准确的模型2021-11-26 09:01:17

     论文题目:Beyond OCR + VQA: Involving OCR into the Flow for Robust and Accurate TextVQA  论文链接:https://dl.acm.org/doi/abs/10.1145/3474085.3475606   一、任务概述  视觉问答任务(VQA):将图像和关于图像的自然语言问题作为输入,并生成自然语言答案作为输出。  文

  • 图神经网络在推荐系统中的应用2021-11-22 22:34:39

      互联网中到处都是图结构的数据,比如我们熟悉的社交网络,最近流行的知识图谱等等,这些数据中包含着大量的关系信息,这对推荐系统来说是非常有帮助的。   为了能更好地利用这些信息进行推荐,各大巨头可谓尝试了各种办法,比如 DeepWalk、Node2Vec 这些非常实用的 Graph Embeddin

  • 【推荐系统】TensorFlow复现论文NeuralCF网络结构2021-11-19 10:32:43

    文章目录 一、导包二、读取数据三、特征编码处理四、使用具名元组为特征进行处理五、构建模型5.1 输入层5.2 Embedding层5.3 GML5.4 MLP5.5 输出层5.6 构建模型 六、运转模型 下图为NeutralCF的模型结构图,总共两个分支,第一个分支为GML,第二个为MLP,GML通路将两个特征的Embe

  • 1113-七言诗词收集与LSTM自动写诗2021-11-13 23:36:27

    七言诗词收集 数据清洗 通过之前对每个诗词进行的诗词形式的分类:提取诗词形式与对应的诗词内容两列    开始清洗: ①找到formal为七言绝句的诗词 ②对诗词进行分词,判断是否符合要求,然后去除一些非法字符的段落 import pandas as pd import re #获取指定文件夹下的excel import

  • Pytorch简单实现seq2seq+Attention机器人问答2021-11-09 13:30:37

    一、准备数据 1.seq_example代表问题,seq_answer代表答案,数据内容如下所示: seq_example = ["你认识我吗", "你住在哪里", "你知道我的名字吗", "你是谁", "你会唱歌吗", "你有父母吗"] seq_answer = ["当然认识", "我住在成都", "我不知道", "

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有