ICode9

精准搜索请尝试: 精确搜索
  • MindSpore21天实战营手记(二) :基于Bert进行中文新闻分类2021-07-26 19:04:21

    课程秉承了“实战”风,老师简单理了一下NLP模型发展脉络,每个时期代表模型的优缺点,就一猛子扎进了BERT的关键技术——Transformer和Attention工作机制,于是编码解码、Query、Key、Values、Embedding、Softmax、矩阵运算带着满满的优越感向我碾压过来。算了,既然这是实战课,理论的问题

  • Transformer block拆解2021-07-26 19:00:26

    Transformer block拆解 基本结构 Zoom in Feed Forward子模块 典型模型基本参数 References 基本结构 basic参数 or : total number of transformer blocks or : number of units in each bottleneck layer, and number of units of each Q/K/V input or :

  • 【AllenNLP入门教程】: 1、基于Allennlp2.4版本的文本分类2021-07-25 19:06:34

    前言 之前写过【AllenNLP】专栏学习allennlp 框架的一个入门中文教程,最近看的时候发现现在的版本已经从0.8升级到2.6了,升级内容见这里Upgrade guide from 1.x ➡️ 2.0,可以看到有很多内容已经不适应了,所以根据官网最近的教程写了新的中文教程。 本教程可以实现:基于movie review

  • 【直播】闫强:文本分类上分利器 -- Bert微调技巧大全2021-07-24 23:34:05

    文本分类上分利器 – Bert微调技巧大全 直播信息 主讲人:ChallengeHub成员,中国人民大学硕士。 直播时间:2021年07月25日 15:00~16:00 直播内容: 经典论文介绍与解读模型继续预训练实现交流&答疑 直播网址: https://live.bilibili.com/21482458 组队学习之余,来读读组队学习中发

  • 基于Bert和通用句子编码的Spark-NLP文本分类2021-07-24 17:00:51

    自然语言处理(NLP)是许多数据科学系统中必须理解或推理文本的关键组成部分。常见的用例包括文本分类、问答、释义或总结、情感分析、自然语言BI、语言建模和消歧。 NLP在越来越多的人工智能应用中是越来越重要。如果你正在构建聊天机器人、搜索专利数据库、将患者与临床试验

  • 论文笔记1:Kaleido-BERT: Vision-Language Pre-training on Fashion Domain2021-07-20 13:33:25

    Kaleido-BERT 引入了一种新颖的 kaleido 策略,基于transformer的时尚领域跨模态表示。同时设计了一种 alignment guided masking 策略,使模型更加关注图像-文本之间的语义关系。模型采用 NLP 中标准的 transformer 结构,以此来保证 Kaleido-BERT 的可扩展性。它在包括文本检索(R@l:4.03

  • 【代码实现】tag-based-multi-span-extraction2021-07-18 14:33:19

    tag-based-multi-span-extraction 代码:https://github.com/eladsegal/tag-based-multi-span-extraction 论文:A Simple and Effective Model for Answering Multi-span Questions 配置环境变量添加代理 scp -r zhaoxiaofeng@219.216.64.175:~/.proxychains ./ 修改~/.bash

  • 理解BERT模型2021-07-17 16:31:18

    一、前言 Google 在论文《BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding》中提出了 BERT 模型,BERT 模型主要利用了 Transformer 的 Encoder 结构,采用的是最原始的 Transformer,总的来说 BERT 具有以下的特点: 结构:采用了 Transformer 的 E

  • BERT论文阅读(二): CG-BERT:Conditional Text Generation with BERT for Generalized Few-shot Intent Detection2021-07-15 11:33:38

    目录 The proposed method Input Representation The Encoder   The Decoder  fine-tuning discriminate a joint label space consisting of both existing intent which have enough labeled data and novel intents which only have a few examples for each class. ==>

  • Softmax反向传播推导、Bert的模型架构2021-07-14 18:03:48

    日萌社 人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新) fasttext模型在大量类别上能够快速训练的原因、为了提升fasttext模型的评估指标做了哪些优化  简述BERT模型的训练过程、BERT模型在推断过程中做了哪些性能优化、BERT模型在训练过程中

  • bert中初cls和sep的其他特殊编码2021-07-13 10:02:55

    bert中的其他特殊编码 为什么要其他的特殊编码呢? 首先回顾下cls是做什么的: [CLS]单文本分类任务:对于文本分类任务,BERT模型在文本前插入一个[CLS]符号,并将该符号对应的输出向量作为整篇文本的语义表示,用于文本分类。可以理解为:与文本中已有的其它字/词相比,这个无明显语义信息的符

  • bert 三种pooling策略对比2021-07-13 09:31:06

    bert三种pooling策略对比 notes:因为基本上没有用过原生的bert做过句向量,所以别人冷不丁一问起,笔者顿时三脸懵逼 Sentence-BERT在BERT/RoBERTa的输出结果上增加了一个pooling操作,从而生成一个固定大小的句子embedding向量。实验中采取了三种pooling策略做对比:参考 直接采用CLS位

  • kaleido-BERT原理(电商多模态)2021-07-12 23:29:47

    kaleido-BERT原理 论文地址: https://arxiv.org/abs/2103.16110 GitHub地址:https://github.com/mczhuge/Kaleido-BERT/ 1. 多模态模型主体类别 ​ 阿里的ICBU部门最新的多模态研究工作kaleido-BERT文章中总结了30种近两年多模态预训练模型的,包括模型主要结构,训练数据集,一些核

  • 优质 Idea 分享2021-07-10 21:02:48

    1. Chinese bert 融合字形与拼音信息的中文预训练模型 2. autoformer 对时间序列的升级改造

  • 【详解】BERT的3个Embedding的实现原理2021-07-09 19:30:59

    本文将阐述BERT中嵌入层的实现细节,包括token embeddings、segment embeddings, 和position embeddings. 目录 概览1 Token Embeddings作用实现 2 Segment Embeddings作用实现 3 Position Embeddings作用实现 4 合成表示 概览 下面这幅来自原论文的图清晰地展示了BERT中

  • 【Pre-Training】ALBERT:轻量级 BERT,又轻又好2021-07-09 17:55:39

    今天阅读的是 Google 同学 2019 年的论文《ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS》。 我们知道模型效果会随着模型深度的增加得到提升,然而模型深度的增加也会使得训练变得更困难,为了解决这个问题,Google 的同学提出了一个轻量级的 BERT:ALB

  • 基于中文的搜索拼写纠错,大厂是如何实现的?2021-07-06 08:52:04

    中文拼写检查一直以来都是研究中的难题,目前主要采用的是基于规则的方法和基于统计的方法,此外再增加人工校验的方式来提升效果。 基于规则的方法思想简单、易于实现,但是由于不能覆盖所有的错误现象,因而其查错纠错的能力极其有限。 基于统计的方法主要使用基于N元语法模型(N-Gram)的查

  • Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks2021-07-05 17:03:22

    原文  https://arxiv.org/abs/1908.10084 Abstract STS semantic textual similarity BERT结构不适合语义相似搜索,非监督的任务聚类等 SBERT Sentence-BERT finding the most similar pair from 65 hours with BERT / RoBERTa to about 5 seconds with SBERT, while maintaini

  • 文献阅读笔记:RoBERTa:A Robustly Optimized BERT Pretraining Approach2021-06-30 09:33:48

    0. 背景 机构:Facebook & 华盛顿大学 作者:Yinhan Liu 、Myle Ott 发布地方:arxiv 论文地址:https://arxiv.org/abs/1907.11692 论文代码:https://github.com/pytorch/fairseq 1. 介绍 RoBERTa 模型是BERT 的改进版(从其名字来看,A Robustly Optimized BERT,即简单粗暴称为强力

  • 一文详解常见医学自然语言理解任务和算法2021-06-29 13:33:34

    简介:CBLUE(Chinese Biomedical Language Understanding Evaluation Benchmark)包括医学文本信息抽取、医学术语标准化、医学文本分类和医学问答4大类常见的医学自然语言处理任务。 1. 引言 随着人工智能(AI)技术的不断发展,越来越多的研究者开始关注AI技术在医学健康领域的研究

  • 自监督学习——对比学习自监督2021-06-29 11:05:11

    关于Bert的无监督聚类的一些说法 1.首先一点是在不finetune的情况下,cosine similairty绝对值没有实际意义,bert pretrain计算的cosine similairty都是很大的,如果你直接以cosine similariy>0.5之类的阈值来判断相似不相似那肯定效果很差。如果用做排序,也就是cosine(a,b)>cosine(a,c)

  • 自然语言处理学习——论文分享——A Mutual Information Maximization Perspective of Language Representation Learning2021-06-29 10:52:43

    资料放在前面: 文章的贡献如下: (1)提出了一个基于最大化MI的理论框架来理解词表示学习模型,并将已知的方法统一到这个框架之中,如skip-gram,masked language modeling(如BERT)和permutation language modeling(如XLNET)。并指出BERT和Skip-gram其实在最大化一个相似的目标式,而他们最大的不同

  • 继续预训练BERT实战(pytorch版)2021-06-27 23:32:29

    这里写自定义目录标题 如何插入一段漂亮的代码片 生成一个适合你的列表 创建一个表格 设定内容居中、居左、居右 SmartyPants 创建一个自定义列表 如何创建一个注脚 注释也是必不可少的 KaTeX数学公式 新的甘特图功能,丰富你的文章 UML 图表 FLowchart流程图 导出与

  • 【李宏毅2020 ML/DL】P34 More about explainable AI | Attribution, Heatmap, explainable model2021-06-22 17:01:37

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的、自己不知道的东西。 已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-notes 本节内容综述 助教讲解,日期为4月6日,主讲人杨书文。 首先将背景,对之前内容复习。 第一部分,Attribution,首先是What and

  • GPT and BERT2021-06-20 18:05:20

    目录概主要内容GPTBERT Radford A., Narasimhan K., Salimans T. and Sutskever I. Improving language understanding by generative pre-training. 2018. Devlin J., Chang M., Lee K. and Toutanova K. BERT: Pre-training of deep bidirectional transformers for language

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有