ICode9

精准搜索请尝试: 精确搜索
  • 预训练综述 Pre-trained Models for Natural Language Processing: A Survey 阅读笔记2021-10-08 15:30:45

    原文链接:https://arxiv.org/pdf/2003.08271.pdf 此文为邱锡鹏大佬发布在arXiv上的预训练综述,主要写了预训练模型(PTM)的历史,任务分类,PTM的扩展,将PTM转换到下游任务的方式,PTM的资源与应用。 以下为OneNote笔记的copy。 1 导言 非神经NLP方法通常严重依赖于离散的手工特征,而神经

  • NLP预训练发展小结二(Bert之后)2021-10-02 16:02:07

    本篇博文简要记录基于Transformer的各类自然语言处理预训练模型(自Bert开始)的特点及使用。 1. Bert BERT(Bidirectional Encoder Representations from Transformers)做的是一个上下文双向的信息编码器; Bert与之前的ELMo、GPT相比较: ELMo只是拼接LSTM 的正向向量和反向向量,并没有发

  • Sentence-BERT论文阅读笔记2021-10-01 20:58:12

    目录 1. 第一篇论文《Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks》1.1 论文基本信息1.2 动机1.3 模型1.4. 实验1.4.1 训练所用的数据集1.4.2 实验结果1.4.3 消融实验 1.5 小结 2. 第二篇论文2.1 论文基本信息2.2 动机2.3 模型2.3.1 Augmented SBERT2

  • K-BERT:BERT+知识图谱2021-10-01 10:32:02

    1 简介 本文根据2019年《K-BERT:Enabling Language Representation with Knowledge Graph》翻译总结的。如标题所述就是BERT+知识图谱。 本文贡献如下: 1) 我们介绍了一个知识集成的语言表达模型,取名K-BERT。其兼容BERT,同时可以融合专有领域知识。解决了Heterogeneous Embedding

  • NLP与深度学习(五)BERT预训练模型2021-09-30 21:04:57

    1. BERT简介 Transformer架构的出现,是NLP界的一个重要的里程碑。它激发了很多基于此架构的模型,其中一个非常重要的模型就是BERT。 BERT的全称是Bidirectional Encoder Representation from Transformer,如名称所示,BERT仅使用了Transformer架构的Encoder部分。BERT自2018年由谷歌发

  • Transformer结构及其应用详解--GPT、BERT、MT-DNN、GPT-22021-09-22 20:06:28

    本文首先详细介绍Transformer的基本结构,然后再通过GPT、BERT、MT-DNN以及GPT-2等基于Transformer的知名应用工作的介绍并附上GitHub链接,看看Transformer是如何在各个著名的模型中大显神威的。 一、取代RNN——Transformer 在介绍Transformer前我们来回顾一下RNN的结构 对RNN

  • Huggingface中的BERT模型的使用方法2021-09-21 16:02:21

    安装Huggingface的transformers库,安装该库之前要确保下载了pytorch或者tensorflow2.0的框架。 pip install transformers ```吗 2. transformers库安装好之后我们就可以使用其提供的预训练模型进行使用了。使用之前先介绍一些相关的内容:一个完整的transformer模型主要包含三个

  • 【NLP之transformer | Datawhale-9月】Task03:学习BERT2021-09-17 23:04:46

    图解BERT BERT的预训练+微调(finetune): 先在大规模无监督语料上进行预训练; 然后在预训练好的参数基础上增加一个与任务相关的神经网络层; 并在该任务的数据上进行微调训,最终取得很好的效果。 现已成为NLP主流解决方案。 1 BERT句子分类 步骤: 下载无监督预料上的BERT模型,包含:BERT

  • BERT-as-service2021-09-17 15:58:41

    完整项目源码地址:https://github.com/xmxoxo/BERT-train2deploy 项目博客地址:https://blog.csdn.net/xmxoxo/article/details/89315370

  • bert介绍和使用2021-09-16 18:05:17

    原文链接:https://blog.csdn.net/weixin_46425692/article/details/108890831?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522163175571916780274115633%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=163175571916780274115633&

  • 【论文笔记】TinyBERT: Distilling BERT for Natural Language Understanding2021-09-16 11:34:46

    To accelerate inference and reduce model size while maintaining accuracy, we first propose a novel Transformer distillation method that is specially designed for knowledge distillation (KD) of the Transformer-based models. Then, we introduce a new two-s

  • BERT结合Faiss实现问答检索(少于50行代码)2021-09-16 10:04:48

    本文主要介绍一个框架nlp-basictasks nlp-basictasks是利用PyTorch深度学习框架所构建一个简单的库,旨在快速搭建模型完成一些基础的NLP任务,如分类、匹配、序列标注、语义相似度计算等。 下面利用该框架实现问答检索 所谓检索,就是将本地所有待检索的每一个句子编码成一个向量,

  • 文本分类pytorch Bert fine tune2021-09-15 11:03:24

    基于Bert预训练模型的文本分类fine tune 环境 python==3.7torch==1.7.1transformers==4.9.2scikit-learn==0.21.3tensorboard==2.5.0pandasnumpy 构建数据集 将数据放到如下图格式的dataframe中,label对应的数字为每种类别的下标。 random seed设置 import torch import nu

  • [论文笔记]ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS2021-09-13 21:30:39

    引言 本文是ALBERT1的论文笔记。 ALBERT(A Lite BERT)可以看成是BERT的精简版,现在像GPT-3这种模型大到无法忍受。 ALBERT提供了另一种思路,通过parameter-reduction(参数精简)技术降低内存消耗同时增加BERT的训练速度。 核心思想 作者设计了精简版(Lite)的BERT架构——ALBERT

  • kashgari实现BERT-BILSTM-CRF中文命名实体识别2021-09-11 10:01:58

    kashgari实现BERT-BILSTM-CRF中文命名实体识别@TOC 关于kashgari的安装教程及使用教程 通过我一天半的不断尝试,努力,终于完成了kashgari的配置,把我配置过程中需要注意的事项写在下文,供大家借鉴 kashgari与tensorflow环境问题 说实话,网上许多注意事项,我也就觉得下面的信息最有

  • 方面级情感分析论文泛08:Utilizing BERT for Aspect-Based Sentiment Analysis via Constructing Auxiliary Sentence2021-09-07 16:34:40

    提示1:原文链接 提示2:代码链接 文章目录 前言一、论文信息二、笔记要点2.1 提出问题2.2 目前解决方法2.3 本文方法和创新点2.4 模型结构2.5 实验结果2.6 总结和思考 总结 前言   本篇博客主要是对《Utilizing BERT for Aspect-Based Sentiment Analysis via Constructi

  • 方面级情感分析论文泛07:BERT Post-Training for Review Reading Comprehension and Aspect-based Sentiment Analysis2021-09-07 09:59:24

    提示1:原文链接 提示2:代码链接 文章目录 前言一、论文信息二、笔记要点2.1 目前存在的问题2.2 目前解决方法2.3 本文方法和创新点2.4 模型结构2.5 实验结果2.5.2 算法对比 2.6 总结和展望 总结 前言   本篇博客主要是对《BERT Post-Training for Review Reading Compre

  • TensorFlow版BERT源码详解之self-attention2021-09-05 11:33:58

      self-attetion是BERT中的最为核心的内容之一,虽然TensorFlow版的BERT中的self-attention的原理和论文中是一致的,但是实现代码却有所出入。为了帮助新手快速理解这部分内容,所以通过该篇博客逐行解释具体代码。 文章目录 1. 函数参数2. 维度变换过程2.1 单个注意力头2.2

  • 李宏毅深度学习自监督式学习2021-09-03 19:02:24

    目录 一、Self-supervised Learning1、BERT模型2、怎样使用BERT3、为什么BERT工作?4、GPT 一、Self-supervised Learning 在没有标注的资料里面,将其分成输入部分和有label的部分 1、BERT模型 输入一排向量输出一排向量,输入多长输出多长(一般用于自然语言处理) 输入的文

  • 深度学习2021-08-09 13:33:16

    1. 为什么要进行预训练?    为模型提供了一个好的初始化参数,在目标任务上具备更好的泛化性能、并加速收敛;    是一种有效的正则化手段,避免在小数据集上过拟合。   2. 什么是词嵌入和分布式表示?PTMs与分布式表示的关系?    把一个维数为所有词的数量的高维空间嵌入到一个维数

  • BERT P2_Fun Facts about BERT_李宏毅2021-08-07 12:04:08

    BERT P2_Fun Facts about BERT Why does BERT work? "为什么BERT有用?" 最常见的解释是,当输入一串文本时,每个文本都有一个对应的向量。对于这个向量,我们称之为embedding。 它的特别之处在于,这些向量代表了输入词的含义。例如,模型输入 "台湾大学"(国立台湾大学),输出4个向量。这4个向

  • BERT P3_GPT3_李宏毅2021-08-07 12:02:07

    BERT P3_GPT3 除了BERT以外,还有下一个,也是鼎鼎有名的模型,就是==GPT==系列的模型 BERT做的是填空题,GPT就是改一下我们现在在,self-supervised learning的时候,要模型做的任务 Predict Next Token GPT要做的任务是,预测接下来,会出现的token是什么 举例来说,假设你的训练资料里

  • 【论文阅读】ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators[ICLR2020]2021-08-01 18:03:30

    论文地址:https://arxiv.org/pdf/2003.10555.pdf 预训练模型及代码地址(Tensorflow):https://github.com/google-research/electra 文章后半部分有些翻译过来还是有些模糊,谨慎阅读! ABSTRACT 蒙面语言建模(MLM)预训练方法(如BERT)通过使用[MASK]替换一些标记来破坏输入,然后训练模型以重建原

  • 【论文泛读187】使用 BERT 基于阿拉伯语方面的情感分析2021-07-31 12:58:46

    贴一下汇总贴:论文阅读记录 论文链接:《Arabic aspect based sentiment analysis using BERT》 一、摘要 基于方面的情感分析(ABSA)是一种文本分析方法,它定义了与特定目标相关的某些方面的观点的极性。关于ABSA的大部分研究是用英语进行的,少量工作是用阿拉伯语进行的。大多数先

  • BERT相关变体原理理解2021-07-29 02:01:50

    具体顺序不是按照模型出现的顺序,而是按照我在组会上讲的顺序。会在每个模型的一开头列出参考的博客以及论文。 RoBERTa 论文:RoBERTa: A Robustly Optimized BERT Pretraining Approach 参考博客 https://wmathor.com/index.php/archives/1504/ 概述 RoBERTa相较于BERT最大的三点改

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有