ICode9

精准搜索请尝试: 精确搜索
  • ALBERT 告诉了我们什么?2021-03-28 21:51:11

    前言在忙毕业论文之前,恰逢ALBERT刚刚出来,当时想着要聊一聊这篇文章的,但实在是懒,毕业不易啊。最近诸事已经告一段落,已经进入佛系毕业状态,尽人事,知天命啊。本文依据论文本身的顺序,按照模块进行描述,并对一些细节展开讨论,最后针对模型效果提一些自己的看法。需要注意的一点是:ALBERT降低

  • 词向量2021-03-28 13:35:31

    词向量 学习目标 用Skip-thought模型训练词向量 学习使用PyTorch dataset和dataloader 学习定义PyTorch模型 学习torch.nn中常见的Module Embedding 学习常见的PyTorch operations bmm logsigmoid 保存和读取PyTorch模型 word embedding 本文尝试复现论文Distributed Repr

  • DIN2021-03-27 23:38:05

    文章目录 背景特征BaseEmbedding层池化和聚合层MLP层损失函数 DINlocal activation unit 其他改进自适应正则化(Mini-batch Aware Regularization)Dice激活函数评估指标 GAUC 实现参考 背景 Deep Interest Network(DIIN)是2018年阿里巴巴提出来的模型,应用场景是阿里巴巴的

  • 图推荐算法在E&E问题上的应用2021-03-27 13:02:22

    分享嘉宾:庄正中 资深数据挖掘工程师编辑整理:陈家辉内容来源:先荐推荐系统学院出品平台:DataFunTalk注:转载请在后台留言“转载”。导读:本次分享将围绕以图为基础衍生的一类推荐算法原理和应用,以及 E&E 问题 ( 如何应对新用户和新内容 ) 的一些处理方法。E&E 指探索与利用,是推荐系统当

  • 深度时空网络、记忆网络与特征表达学习在 CTR 预估中的应用2021-03-27 11:51:37

    分享嘉宾:秀武 阿里 高级算法专家编辑整理:Jane Zhang内容来源:DataFunTalk注:欢迎转载,转载请在留言区留言。导读:在 CTR 预估中,能不能有效地利用用户历史行为,页面同屏竞争广告信息,以及用户—广告,广告—广告关系等辅助信息来提升模型效果?本文介绍在这方面的探索工作,主要包括:深度时空网

  • 大规模预训练模型在阿里机器翻译中的应用2021-03-27 11:51:24

    分享嘉宾:于恒 博士 阿里达摩院文章整理:刘翔宇内容来源:DataFunTalk·年终论坛出品平台:DataFun注:欢迎转载,转载请在公众号后台留言。导读:大规模预训练的提出对整个自然语言处理领域产生了较大的震动,几乎推动了所有子领域 state-of-the-art 的性能,均上升了一个档次,较多榜单已被刷榜。

  • 【知识图谱系列】多关系异质图神经网络CompGCN2021-03-17 12:57:35

    作者:CHEONG 公众号:AI机器学习与知识图谱 研究方向:自然语言处理与知识图谱 CompGCN (ICLR 2020) Composition-based Multi-Relational Graph Convolutional Networks CompGCN论文汇报ppt可通过关注公众号【AI机器学习与知识图谱】,回复关键词:CompGCN 来获得,供学习者使用!可添加

  • 点击率预估与冷启动(一)2021-03-14 12:58:12

    点击率预估与冷启动(一) 之前一篇文章和大家聊了下《转化率模型与校准》,今天咱们来聊聊点击率预估以及冷启动的问题。有些读者在看完之后可能会发现这两者之间的微妙的联系。废话不多说,开启今天的旅程。   0. 问题介绍 推荐系统和广告算法中,对于新用户或者新内容,记录很少,如果我们

  • 《Towards Real-Time Multi-Object Tracking》翻译和笔记2021-03-13 11:58:46

    摘要 Modern multiple object tracking (MOT) systems usually follow the tracking-by-detection paradigm. It has 1) a detection model for target localization and 2) an appearance embedding model for data association. Having the two models separately execute

  • Keras中Embedding的参数解释(小白)2021-03-12 21:33:32

    keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None) input_dim并不是维度,而是id的最大数字 例如在这个图片中

  • code embedding研究系列六-C-BERT2021-03-09 12:01:48

    Exploring Software Naturalness throughNeural Language Models 论文概述模型:C-BERTTokenizerTransformer Based Language ModelsMasked Language Model (MLM) Pre-training ObjectiveWhole Word Masked (WWM) Pre-training ObjectiveAST Fine-tuning ObjectiveVI Fine-t

  • About KG Embedding2021-03-09 10:33:10

    KG Embedding 一、将词转换为向量          从知识图谱的嵌入技术为知识图谱的补全提供了很大的帮助,将三元组(h,r,t)映射到向量空间中: (此处应该补习关于word2vec知识)      entity1(1.5421,0.2421,-0.2126,...,1.2628)      entity2(0.5421,1.2421,-1.2126,...,0.2628)      .....

  • 论文阅读笔记——Attention is all you need2021-03-07 21:57:16

    (!!!!事先声明!这不是技术分享贴!CSDN虽说都是大佬们的分享平台,但是我只是想把它当做是我的云笔记,内容不敢保证全部正确,风格也都只用自己能懂的大白话,写的时候当做日记记录心情,所以请不要随便评价别人日记写的如何如何,作者童心未泯脾气大,不接受批评,只接受表扬与讨论,不想看请移步大佬

  • 作业记录 WEEK72021-03-06 19:01:07

    消融实验:对比不同embedding dim时模型准确率 在上次的作业基础上,更换训练数据集,添加测试数据集与代码。 步骤 0. 环境 pip install cmake pip install dlib 要等很久,尝试了永久安装路径,cmake可以装到永久路径,但是dlib一装内存就溢出,环境就被关闭了。也不知道为什么。 !换了一

  • 论文笔记 | Graph Pooling2021-02-20 20:59:52

    文章目录 Graph U-Nets研究动机主要内容 Hierarchical Graph Representation Learning with Differentiable Pooling研究动机研究内容 Graph U-Nets 会议:ICML 2019 Authors:Hongyang Gao, Shuiwang Ji Departments: Texas A&M University Recommend Score: 8.5 / 10.0

  • ALBERT2021-02-17 12:57:19

    ALBERT ALBERT: A Lite BERT For Self-Supervised Learning Of Language Representations 主要优化在参数的减少 Factorized embedding parameterization 作者实验发现,把bert的hidden state增大效果会降低,所以反向考虑将参数减少(BERT-xlarge是hidden-state较大的) 设embe

  • 深度学习推荐系统实战2021-02-01 12:01:57

    基础架构 推荐系统要解决什么问题? 在信息过载的情况下,用户如何高效获取感知的信息,即学习\(score(user,item,context)\) 推荐系统的技术架构 数据 数据入口:客户端服务器端实时数据,流处理平台准实时数据,大数据平台离线数据 数据出口:算法模型数据,模型 Serving 特征数据,系统监控

  • BERT2021-01-29 21:32:03

    什么是BERT BERT的全称是Bidirectional Encoder Representation from Transformers,是Google2018年提出的预训练模型,其结构采用Transformer的Encoder部分,主要创新点都在pre-train方法上,即用了Masked LM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation

  • 推荐系统 - 排序算法 - 神经网络:WDL2021-01-29 18:00:20

    今天回顾一下Google在2016年提出的模型:WDL(Wide & Deep Learning for Recommender Systems),WDL模型巧妙的将传统的特征工程与深度模型进行了强强联合。WDL一出,一下引爆了深度学习模型在推荐系统的应用,随后沿着WDL的思路相继出了多个模型,如PNN/DeepFM/DCN/xDeepFM等。直到今天,WDL

  • 机器学习-57-Unsupervised Learning:More about Auto-Encoder(无监督学习之更多有关自编码器的介绍)2021-01-25 21:58:40

    文章目录 More about Auto-EncoderWhat is good embedding?(好的embedding是怎样的?)Beyond Reconstruction:DiscriminatorSequential DataSkip thoughtQuick thoughtContrastive Predictive Coding(CPC) Feature Disentangle (特征解耦)Feature DisentangleFeature Disentan

  • YouTube深度学习视频推荐系统2021-01-25 12:03:13

    YouTube深度学习视频推荐系统 1. 推荐系统的应用场景2.YouTube 推荐系统架构3.候选集生成模型4. 候选集生成模型独特的线上服务方法5. 排序模型6. 训练和测试样本的处理7. 处理用户对新视频的爱好8. 总结 1. 推荐系统的应用场景 作为全球最大的视频分享网站,YouTube 平台

  • ALBERT:精简版的BERT2021-01-24 12:33:54

    1 简介 ALBERT: A LITE BERT,一个精简版的BERT。 本文根据2020年《ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS》翻译而成。 ALBERT引进了两个参数减少的技术。第一个是因子分解embedding参数。通过将大的单词embedding矩阵分解成两个小的

  • 详解Single-Image Piece-wise Planar 3D Reconstruction via Associative Embedding2021-01-22 23:59:52

    Markdown Motivation 理解从图像上提取平面。这个是最新的图片的平面提取。 论文序列 3)Single-Image Piece-wise Planar 3D Reconstruction via Associative Embedding 论文目标 为什么能够提取平面 它包括三个部分,一个语义提取平面和非平面的mask的encoder(典型的语音分割);一

  • 召回模型2021-01-21 10:29:03

      这篇文章介绍如何用FFM模型来做推荐系统的统一召回。算是召回模型系列四篇的第二篇,之前在“推荐系统召回四模型之:全能的FM模型”中,介绍了一些基本知识,以及如何用FM模型做统一召回,又及,FM模型是否可以做一体化的单阶段推荐模型。本文为了能够看起来也独立成篇,所以很多前篇文章

  • 【论文阅读】二进制的Embedding2021-01-20 13:31:25

    论文标题: Learning Compressed Sentence Representations for On-Device Text Processing中文标题: 面向机上文本处理的语句压缩表示学习论文下载链接: 1906.08340论文项目代码: GitHub@BinarySentEmb 序言 本文是7位来自杜克大学的学者, 1位斯坦福大学的学者, 以及1位微

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有