ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

0610 每日文献阅读 打卡

2021-06-10 18:04:23  阅读:138  来源: 互联网

标签:LambdaResNets 结构化 Lambda 内存 文献 打卡 上下文 0610 lambda


Read Data: 0610

Publication: CVPR 2021

Title: LambdaNetworks: Modeling long-range Interactions without Attention

Participants: Irwan Bello

Aim:

为了捕获输入信息和结构化上下文信息(例如,被其他像素包围的像素)之间的长距离交互。

Research Question:

1、  为了长距离交互作用,自注意力机制需要大量内存,阻碍了其在长序列和多数据等大内存方面的应用。

2、  线性注意力为高内存使用提供一个可伸缩的改进方案,但不能对内部数据结构建模,如像素之间的相对距离或图中节点之间的边缘关系。

Method:

  1. lambda层:将上下文转换成线性函数。生成上下文lambda函数,将lambda应用于查询,lambda解释,归一化。
  2. 带有结构化上下文的lambda层。平移等变性、Lambda 卷积
  3. 利用多查询lambda降低复杂度。多查询lambdas可以降低复杂度。

Results:

在使用额外的130M伪标记图像进行大规模半监督训练时,LambdaResNets可实现高达86.7%的ImageNet精度,同时比EfficientNet NoisyStudent快9.5倍,比Vision Transformer快9倍。

Discussion:

Conclusion:

我们提出了一类新的层,称为lambda层,它提供了一个可伸缩的框架,用于捕获输入及其上下文之间的结构化交互。Lambda层将可用上下文概括为固定大小的线性函数(称为lambdas),这些函数直接应用于其关联的查询。由此产生的神经网络LambdaNetworks在计算上是高效的,能够以较小的内存成本捕获长期依赖关系,使其应用于大型结构化输入,如高分辨率图像。大量关于计算机视觉任务的实验显示了它们的多功能性和优于卷积和注意网络。我们介绍了LambdaResNets,一个混合LambdaNetworks系列,可以达到优秀的ImageNet精度,并在流行的EfficientNets和Vision transformer上实现高达9.5倍的加速,显著提高了图像分类模型的速度和精度的折衷。

Further:

Ref:

本文提出新层:Lambda Layers!由其衍生出的LambdaResNets,极大地改善了图像分类模型的速度与准确性权衡。在ImageNet上表现SOTA,同时比EfficientNets快约4.5倍!并在检测和分割任务中性能提升明显,代码开源。

 

 


标签:LambdaResNets,结构化,Lambda,内存,文献,打卡,上下文,0610,lambda
来源: https://www.cnblogs.com/xmy-0904-lfx/p/14872158.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有