ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

李宏毅深度学习笔记06---word embedding(词嵌入也称词向量)

2020-06-14 21:57:36  阅读:567  来源: 互联网

标签:word 李宏毅 wj wi embedding based 上下文


1.one-of-N encoding 与word embedding 

 

2.Word Embedding

(1)生成词向量是无监督的

 

 

 

(2)word embedding 的含义

<1>在没有监督的情况下通过阅读大量文档来机器学习单词的含义

<2>一个词可以通过上下文来理解

(3)如何利用上下文

<1>Count based 

如果两个单词wi,wj经常一起出现,V(wi)与V(wj)彼此会更接近

<2>Prediction-based

案例:

如果输入马英九或蔡英文,输出“宣誓就职”应该都有大的可能性,则z1,z2...zn应该在相同的区域内。

3.word embedding 训练过程

收集数据,分词,将词输入到Neural network中,看神经网络的输出,看输出与期望值的交叉熵。

 

 

 

(1)Prediction-based的两种典型模型

<1>CBOW(continuous bag of word) 连续词包:给定上下文,预测词

<2>给定词,预测上下文

 

(2)word vector 的一些意义

 

标签:word,李宏毅,wj,wi,embedding,based,上下文
来源: https://www.cnblogs.com/luckyplj/p/13127217.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有