ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

计算机视觉中的注意力机制总结

2020-09-16 02:31:22  阅读:1037  来源: 互联网

标签:attention 计算机 Attention 像素 https 视觉 机制 注意力


一、背景

最早图像领域,后面应用到NLP领域 人类视觉注意力机制,扫描全局图像,获得重点关注区域,投入更多经历,抑制其它无用信息,提高视觉信息处理的效率与准确性。   在深度神经网络的结构设计中,attention所要分配的资源基本上就是权重了。 视觉注意力分为几种,核心思想是基于原有的数据找到其之间的关联性,然后突出其某些重要特征,有通道注意力,像素注意力,多阶注意力等,也有把NLP中的自注意力引入。

二、注意力定义

2.1 序列编码

第一个思路是RNN层递归 RNN结构本身比较简单,也很适合序列建模,但RNN的明显缺点之一就是无法并行,因此速度较慢,这是递归的天然缺陷。另外我个人觉得RNN无法很好地学习到全局的结构信息,因为它本质是一个马尔科夫决策过程。 第二个思路是CNN层,其实CNN的方案也是很自然的,窗口式遍历。CNN方便并行,而且容易捕捉到一些全局的结构信息。 第三个即为self-attention,它的意思是直接将xt与原来的每个词进行比较,最后算出yt。一步到位获取了全局信息 

2.2 定义

它的基础是Scaled-Dot Attention,定义如下: 其中Q∈ℝn×dk,K∈ℝm×dk,V∈ℝm×dv,softmax则是在m的那一维进行归一化。而自注意力,则是对于同一个X∈ℝn×d,通过不同的投影矩阵Wq,Wk,Wv∈ℝd×d′得到Q=XWq,K=XWk,V=XWv,然后再做Attention,即 至于Multi-Head Attention,则不过是Attention运算在不同的参数下重复多次然后将多个输出拼接起来,属于比较朴素的增强。   本质上来看,自注意力就是通过一个n×n的矩阵A和d×d′的矩阵Wv,将原本是n×d的矩阵X,变成了n×d′的矩阵AXWv。其中矩阵A是动态生成的,即 对于矩阵B,本质上来说它就是X里边两两向量的内积组合,所以我们称它为“token对token”的Attention。几种类型   Attention层的好处是能够一步到位捕捉到全局的联系,因为它直接把序列两两比较(代价是计算量变为

标签:attention,计算机,Attention,像素,https,视觉,机制,注意力
来源: https://www.cnblogs.com/geo-will/p/13676658.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有