ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

ELECTRA:Efficiently Learning an Encoder that Classifies Token Replacements Accurately

2021-04-03 13:59:26  阅读:189  来源: 互联网

标签:识别器 BERT Replacements 训练 生成器 Accurately Encoder token ELECTRA


1 简介

ELECTRA:Efficiently Learning an Encoder that Classifies Token Replacements Accurately.

本文根据2020年《ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS》翻译总结。根据标题可以知道ELECTRA更关注识别,而不是生成;像BERT这种其实是生成,从mask的输入预测原始输入。

BERT中的MLM预训练方法,需要大量的计算。为此,我们提出一种更加有效的预训练方法,即replaced token detection。不是采用BERT中那种mask输入的方法,而是用一个生成网络中采样的近似token来替换。接着,不是像BERT从破坏掉(mask掉)的输入中恢复原输入,而是训练一个识别器来预测每个token是否被生成网络替换过。通过实验发现,我们这种方法比MLM方法更加有效率,因为我们的任务是定义在所有的token上,而不是仅仅mask掉的那部分token。ELECTRA比BERT训练快很多。

BERT 中存在预训练和下游任务不匹配的现象,即mask在预训练中存在,而在fine-tuned中不存在。而我们是采用MLM训练一个生成器(generator),也是从损害的输入中预测原始输入。然后再识别器识别(discriminative)。

虽然我们的方法让人想起GAN,但是我们的方法不是对抗训练(对抗训练:生成器是产生损害的输入)。

我们没有将识别器的损失反向传播给生成器,事实上,我们也做不到,因为采样的缘故。
在预训练后,我们会丢弃生成器,只是微调识别器到下游任务。

2 具体方法

在这里插入图片描述

如上图,我们的方法训练两个神经网络,一个是生成器(generator)G,一个是识别器(discriminator)D。生成器使用MLM模型,从mask的输入预测原始的输入。识别器然后训练哪些token是被生成器替换的。
在这里插入图片描述

2.1 损失函数

在这里插入图片描述

我们的生成器和对抗训练不一样,是因为(1)我们的生成器是尽可能生成正确的token,而不是来像对抗训练那样来愚弄识别器。(2)我们不是将生成器作为一个噪声输入。

最终损失函数如下:
在这里插入图片描述

我们没有将识别器的损失反向传播给生成器,事实上,我们也做不到,因为采样的缘故。
在预训练后,我们会丢弃生成器,只是微调识别器到下游任务。

3 实验

3.1模型扩展

1)权重共享:我们将识别器和生成器的embedding进行参数共享。
2)小的生成器:如果生成器和识别器采用相同的大小,那么ELECTRA对比MLM模型将是两倍的计算量。我们发现采用小的生成器可以减少这个影响,发现生成器是识别器的1/4到1/2大小最好。
3)训练算法:我们是一起联合训练生成器和识别器,不是分两步训练

3.2 小模型结果

ELECTRA好于BERT。FLOPS:全称是floating point operations per second.
在这里插入图片描述

3.3 大模型结果

ELECTRA在大模型上效果也很好,如果训练时间更长,效果更好,如ELECTRA-1.75M。
在这里插入图片描述

3.4 有效性分析

在这里插入图片描述

在这里插入图片描述

从上表可以看出来ELECTRA从all token中获益良多,以及避免出现预训练和fine-tune之间因有没有mask出现的不匹配而获得少量的收获(Replace MLM与BERT比较)。BERT在避免及避免预训练和fine-tune之间不匹配,已经采用了10%token采用随机token替换和另一部分token保持不变,但这不足以完全避免不匹配。

标签:识别器,BERT,Replacements,训练,生成器,Accurately,Encoder,token,ELECTRA
来源: https://blog.csdn.net/zephyr_wang/article/details/115415410

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有