ICode9

精准搜索请尝试: 精确搜索
  • 联邦学习:联邦场景下的多源知识图谱嵌入2022-07-31 16:01:41

    1 导引 目前,知识图谱(Knowlege Graph)在医疗、金融等领域都取得了广泛的应用。我们将知识图谱定义为\(\mathcal{g}=\{\mathcal{E}, \mathcal{R}, \mathcal{T}\}\),这里\(\mathcal{E}=\left\{e_{i}\right\}_{i=1}^{n}\)是由\(n\)个实体(entity)组成的集合,\(\mathcal{R}=\left\{r_{i}

  • Improving Multi-hop Question Answering over Knowledge Graphs using Knowledge Base Embeddings2022-07-05 12:32:29

    论文地址ACL2022:Improving Multi-hop Question Answering over Knowledge Graphs using Knowledge Base Embeddings 1.Abstract 知识图谱问答(KGQA)任务是通过图谱来回答自然语言形式的问题。多跳的KGQA需要在图谱上的多条边才能够到达答案实体。最近在多跳问题上的研究尝试着使用外

  • Keras模型训练过程中loss为Nan情况分析与处理2022-06-20 20:03:47

    情景: 推荐召回模型训练,开始的几个epoch损失正常下降,在到某个epoch下loss突然为nan,但模型仍在继续training,最终在模型预测时,结果都为零。 查阅相关资料,可能的原因如下: 1)训练集中可能出现为NAN的特征; 2)自定义loss函数中,会存在分母为零的异常,可以加入微小的长度以保持其稳定性; 3)超参

  • 论文阅读 Continuous-Time Dynamic Network Embeddings2022-04-14 00:02:30

    1 Continuous-Time Dynamic Network Embeddings Abstract ​ 描述一种将时间信息纳入网络嵌入的通用框架,该框架提出了从CTDG中学习时间相关嵌入 Conclusion ​ 描述了一个将时间信息纳入网络嵌入方法的通用框架。该框架为推广现有的基于随机游走的嵌入方法提供了基础,用于从连续时

  • Rasa课程、Rasa培训、Rasa面试、Rasa实战系列之Implementation of Subword Embeddings2022-03-19 19:02:04

    Rasa课程、Rasa培训、Rasa面试、Rasa实战系列之Implementation of Subword Embeddings Rasa 3.x系列博客分享 Rasa课程、Rasa培训、Rasa面试系列 Rasa 3.X 项目实战之银行金融Financial Bot智能业务对话机器人 Rasa课程、Rasa培训、Rasa面试、Rasa实战系列之Rasa 3.X 微

  • #Reading Paper# Learning Graph Meta Embeddings for Cold-Start Ads in Click-Through Rate Prediction2022-03-01 21:34:47

    #论文题目:Learning Graph Meta Embeddings for Cold-Start Ads in Click-Through Rate Prediction(基于图神经网络和元学习的冷启动推荐算法) #论文地址:https://arxiv.org/abs/2105.08909 #论文发表网站:https://dl.acm.org/doi/10.1145/3404835.3462879 #论文源码开源地址:https

  • SimCSE: Simple Contrastive Learning of Sentence Embeddings(EMNLP 2021)2022-01-24 18:30:47

    SimCSE: Simple Contrastive Learning of Sentence Embeddings(EMNLP 2021) Motivation 无监督的SimCSE将句子过两次预训练模型得到两个不同的embedding作为正例对,将同一batch中的其他句子作为负例,模型在所有负例中预测出唯一的正例。有监督的SimCSE使用NLI数据,将蕴含关系对

  • 笔记:读Contextual String Embeddings for Sequence Labeling2022-01-09 13:35:16

    笔记:Contextual String Embeddings for Sequence Labeling 作者:Akbik A et al.,COLING 2018 目录 Major Work Typical Embedding Contextual String Embeddings Experiments Conclusion 1 Major Work 本文作者主要提出了一种新型embedding--上下文相关的字符级LM预训练得到的co

  • Neural Graph Collaborative Filtering阅读笔记2021-12-23 22:06:17

    动机 本文是2019年SIGIR的一篇文章。在推荐系统中,用户和物品的向量表示(embeddings)是推荐系统的核心,但目前的方法都是根据用户(物品)原有的特征通过映射获取embeddings,并没有将用户与物品交互中的潜在的协同信号编码进embeddings,因此产生的embeddings可能不足以支持捕获协同过滤效

  • Enriching Word Embeddings for Patent Retrieval with Global Context2021-12-04 21:02:46

    Enriching Word Embeddings for Patent Retrieval with Global Context 利用全局上下文丰富专利检索词嵌入 Abstract. 在本研究中,我们探讨词汇嵌入在专利检索中的应用,是基于分布式语义的方法。 什么是分布式语义https://blog.csdn.net/flying_1314/article/details/117930877

  • Pytorch tokenizer使用及补充vocab词汇表2021-11-13 01:02:23

    我们现在需要对一句话做分词,然后转换成index,作为Bert的输入 tokenizer = BertTokenizer.from_pretrained(config.PRE_TRAINED_MODEL_NAME) text = '天空下着暴雨,o2正在给c1穿雨衣,他自己却只穿着单薄的军装,完全暴露在大雨之中。角色: o2' input_ids =tokenizer.encode(text) out

  • 【论文阅读】Joint_Self-Attention_and_Multi-Embeddings_for_Chinese_Named_Entity_Recognition[BigCom2020]2021-11-12 22:02:19

    论文地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9160451 代码地址: Abstract 命名实体识别(NER)是自然语言处理(NLP)中的一项基本任务,但由于汉语的特殊性和复杂性,在汉语中的命名实体识别仍具有较大的挑战性。传统的中文命名实体识别(Chinese NER)方法需要繁琐的特征

  • 人工智能Java SDK:句向量提取【支持15种语言】2021-10-31 10:07:57

    句向量SDK【支持15种语言】 句向量是指将语句映射至固定维度的实数向量。 将不定长的句子用定长的向量表示,为NLP下游任务提供服务。 支持 15 种语言: Arabic, Chinese, Dutch, English, French, German, Italian, Korean, Polish, Portuguese, Russian, Spanish, Turkish. 句

  • 人工智能Java SDK:句向量提取【支持100种语言】2021-10-31 10:06:40

    句向量SDK【支持100种语言】 句向量是指将语句映射至固定维度的实数向量。 将不定长的句子用定长的向量表示,为NLP下游任务提供服务。 支持下面100种语言: 句向量 句向量应用: 语义搜索,通过句向量相似性,检索语料库中与query最匹配的文本文本聚类,文本转为定长向量,通过聚类模

  • 人工智能Java SDK:轻量句向量提取【英文】2021-10-31 10:05:52

    轻量句向量SDK【英文】 句向量是指将语句映射至固定维度的实数向量。 将不定长的句子用定长的向量表示,为NLP下游任务提供服务。 句向量 句向量应用: 语义搜索,通过句向量相似性,检索语料库中与query最匹配的文本文本聚类,文本转为定长向量,通过聚类模型可无监督聚集相似文本文本

  • torch.nn.Embedding(num_embeddings,embedding_dim)实现文本转换词向量,并完成文本情感分类任务2021-10-25 18:01:55

    1、处理数据集 1 import torch 2 import os 3 import re 4 from torch.utils.data import Dataset, DataLoader 5 6 7 dataset_path = r'C:\Users\ci21615\Downloads\aclImdb_v1\aclImdb' 8 9 10 def tokenize(text): 11 """ 12

  • CS224W摘要04.Graph as Matrix:PageRank, Random Walks and Embeddings2021-09-15 14:05:02

    文章目录 PageRankLinks as votesMatrix Formulation与随机游走的关系 How to solve PageRank?Power IterationProblemsExample Random Walk with restarts and Personalized PageRankMatrix Factorization and Node EmbeddingsConnection to Matrix FactorizationRandom W

  • BERT论文阅读(二): CG-BERT:Conditional Text Generation with BERT for Generalized Few-shot Intent Detection2021-07-15 11:33:38

    目录 The proposed method Input Representation The Encoder   The Decoder  fine-tuning discriminate a joint label space consisting of both existing intent which have enough labeled data and novel intents which only have a few examples for each class. ==>

  • 【详解】BERT的3个Embedding的实现原理2021-07-09 19:30:59

    本文将阐述BERT中嵌入层的实现细节,包括token embeddings、segment embeddings, 和position embeddings. 目录 概览1 Token Embeddings作用实现 2 Segment Embeddings作用实现 3 Position Embeddings作用实现 4 合成表示 概览 下面这幅来自原论文的图清晰地展示了BERT中

  • Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks2021-07-05 17:03:22

    原文  https://arxiv.org/abs/1908.10084 Abstract STS semantic textual similarity BERT结构不适合语义相似搜索,非监督的任务聚类等 SBERT Sentence-BERT finding the most similar pair from 65 hours with BERT / RoBERTa to about 5 seconds with SBERT, while maintaini

  • MyDLNote-Transformer: 局部和全局的 Transformer - Transformer in Transformer2021-07-04 14:31:19

    Transformer in Transformer https://arxiv.org/pdf/2103.00112v1.pdf https://github.com/NZ99/transformer_in_transformer_flax https://github.com/huawei-noah/noah-research/tree/ master/TNT 目录 Abstract Introduction Approach Experiments Abstract Transformer

  • Conversational Machine Comprehension: a Literature Review(2020.11)2021-06-26 18:57:27

    机器阅读理解(Machine Reading Comprehension (MRC))的大部分研究都是围绕单回合问答(QA)展开的,而多回合问答技术(Conversational Machine Comprehension(CMC))最近也得到了重视,这要归功于神经语言模型(如BERT)在自然语言理解方面的进步,以及大规模会话数据集(如CoQA和QuAC)的引

  • GPT and BERT2021-06-20 18:05:20

    目录概主要内容GPTBERT Radford A., Narasimhan K., Salimans T. and Sutskever I. Improving language understanding by generative pre-training. 2018. Devlin J., Chang M., Lee K. and Toutanova K. BERT: Pre-training of deep bidirectional transformers for language

  • 使用端到端深度学习模型完成PPI任务两篇论文笔记2021-05-30 20:30:33

    1.“Multifaceted protein–protein interaction prediction based on Siamese residual RCNN” 1.1PPI任务的难点: (1)蛋白质的表征需要一个模型来有效地过滤和聚合它们的局部特征,同时保留重要的上下文和序列的氨基酸信息 (2)扩展深度神经结构经常导致低效的学习过程,并遭受臭名

  • gensim中有关word2vec的一些使用2021-04-14 20:36:11

    写在前面:下面的内容基于pytorch的版本为:1.7.1 1. 预训练嵌入向量的使用 import gensim model = gensim.models.KeyedVectors.load_word2vec_format('./w2v_model.txt',binary=False, encoding='utf-8') #加载预训练向量 print(model['the'] # 查看某个词的嵌入向量 vocab

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有