ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

天池-全球人工智能技术创新大赛【热身赛二】-中文预训练模型泛化能力挑战赛-NLP-改进优化

2021-02-25 23:59:47  阅读:239  来源: 互联网

标签:NLP 泛化 训练 loss 模型 step 挑战赛 chinese 优化


背景

    由上篇文章可知,baseline跑通,需对模型进行改进和优化。

优化思路

1.修改 calculate_loss.py 改变loss的计算方式,从平衡子任务难度以及各子任务类别样本不均匀入手;
2.修改 net.py 改变模型的结构,加入attention层,或者其他层;
3.使用 cleanlab 等工具对训练文本进行清洗;
4.做文本数据增强,或者在预训练时候用其他数据集pretrain;
5.对训练好的模型再在完整数据集(包括验证集和训练集)上用小的学习率训练一个epoch;
6.调整bathSize和a_step,变更梯度累计的程度,当前是batchSize=16,a_step=16;
7.用 chinese-roberta-wwm-ext 作为预训练模型;

    综上所述,总共提供了7种方法可对比赛进行改进和优化进而上分操作。

baseline初始成绩
在这里插入图片描述

调整epochs
在这里插入图片描述

调整了a_step
在这里插入图片描述

使用chinese-roberta-wwm-ext 作为预训练模型
在这里插入图片描述

在这里插入图片描述

To Be Continue…~~~~~~

标签:NLP,泛化,训练,loss,模型,step,挑战赛,chinese,优化
来源: https://blog.csdn.net/qq_39544991/article/details/114108821

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有