ICode9

精准搜索请尝试: 精确搜索
  • [阿里DIN] 从论文源码梳理深度学习几个概念2021-04-26 11:01:24

    本文基于阿里推荐 DIN 和 DIEN 代码,梳理了下深度学习一些概念,以及TensorFlow中的相关实现。 因为篇幅所限,所以之前的整体代码讲解中,很多细节没有深入,所以本文会就这些细节进行探讨,旨在帮助小伙伴们详细了解每一的步骤以及为什么要这样做。 涉及概念有:全连接层,prelu,batch normalizat

  • BN能不能解决过拟合?为什么?2021-04-12 10:34:17

     个人认为BN不能解决过拟合,根据paper中的实验来说,是无法阻止过拟合的。但是BN可以在某些情况下对过拟合有抑制作用,使得过拟合在更多的 train epoch之后才出现。不能解决但是能缓解。  BN的核心思想不是为了防止梯度消失或者是防止过拟合,其核心思想是通过系统参数搜索空间进

  • 实验一-密码引擎-商用密码算法实现12021-04-11 21:36:19

    主要代码: // \file:sm2.c //SM2 Algorithm //2011-11-10 //author:goldboar //email:goldboar@163.com //depending:opnessl library //SM2 Standards: http://www.oscca.gov.cn/News/201012/News_1197.htm #include <limits.h> #include <openssl/ec.h> #inclu

  • 二项树(binomial tree)2021-04-01 16:05:48

    目录 一,二项树(binomial tree) 二,二项树的母函数 三,二项树的节点数 一,二项树(binomial tree) 二项树是一组固定的递归定义的树: B0是一个单节点的树, Bn是一棵n叉树,根节点有n个孩子,分别是B0,B1......B n-1   二,二项树的母函数 对于Bn,它的深度为n,我们定义它的母函数:   , 其中si是第i

  • pytorch-YOLOv3-darknet.py代码和详细注释2021-03-23 13:02:34

    from __future__ import division import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd import Variable import numpy as np from util import * def get_test_input(): img = cv2.imread("dog-cycle-car.png")

  • 理解对比表示学习(Contrastive Learning)2021-03-19 11:06:04

    目录 一、前言 二、对比学习 三、主要论文(附代码分析) 1. AMDIM ([Bachman](https://arxiv.org/pdf/1906.00910.pdf) *et al.* 2019) 2. SIMCLR ([Geoffrey Hinton](https://arxiv.org/pdf/2002.05709.pdf) *et al* 2020) 3.MOCO ([Kaiming He](https://ieeexplore.ieee.org/docu

  • ####好好好####详解深度学习中的 Normalization,不只是 BN2021-03-04 18:30:49

    本文作者Juliuszh,本文首发于知乎专栏【机器学习炼丹记】,AI 研习社获其授权转载。 深度神经网络模型训练之难众所周知,其中一个重要的现象就是 Internal Covariate Shift. Batch Norm 大法自 2015 年由 Google 提出之后,就成为深度学习必备之神器。自 BN 之后, Layer Norm / Weight

  • 正项级数收敛性判别方法2021-02-25 20:31:54

    比值判别法 设 Σ n = 1 ∞ a

  • 计算机导论-6-进制转化2021-02-22 13:32:05

    计算机导论-6-进制转化 十进制和其它进制的相互转化 首先要了解,十进制满十进一; 二进制满二进一; 八进制满八进一; 十六进制满十六进一。 其次,要了解关于位置量的规定: …bn,bn-1,…,3,2,1,0,-1,-2,-3,…-bn-1,-bn 各种进制的整数位置量是从0开始,从左向右,依次递增,小数位的位置量是

  • 卷积层通道剪裁2021-02-21 07:02:23

    卷积层通道剪裁 Pruner classpaddleslim.prune.Pruner(criterion="l1_norm") 对卷积网络的通道进行一次剪裁。剪裁一个卷积层的通道,是指剪裁该卷积层输出的通道。卷积层的权重形状为 [output_channel, input_channel, kernel_size, kernel_size] ,通过剪裁该权重的第一纬度

  • 量化总结1-Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference2021-02-06 12:01:05

    先回顾论文的思想,再进一步讨论改进,本方法我进行了复现,但是没有将卷积乘法改成int型乘法,因为服务器没法做: 1、本方法属于线性量化,如下式,q是fp32的r的量化后的值:     将最小值也做了对应的量化(zero-point)。 讨论矩阵乘法的整形运算(我觉得是本文最精华的地方) 流程如下式所示,式2->

  • Tensorflow2.0 用 tf.keras.applacations 迁移学习时如何在导入 imagenet 权重的同时保留分类层2021-02-03 12:57:59

    项目说明 在 Tensorflow2.0之tf.keras.applacations迁移学习 一文中,我们演示了如何将迁移学习层和自定义的分类层结合起来使用,但这里有个问题,就是当你再次打印结合后的模型的每层的名称时,会出现如下情况: import tensorflow as tf mobile = tf.keras.applications.MobileNet(

  • 最长公共子序列2021-01-31 14:02:45

    题目 输出最长长度即可 (1)如果am-1 == bn-1,则当前最长公共子序列为"a0, a1, …, am-2"与"b0, b1, …, bn-2"的最长公共子序列与am-1的和。长度为"a0, a1, …, am-2"与"b0, b1, …, bn-2"的最长公共子序列的长度+1。 (2)如果am-1 != bn-1,则最长公共子序列为max("a0, a1, …, am-2

  • 数据结构-二叉树编程2021-01-28 02:32:03

    数据结构-二叉树编程 求二叉树叶子数量 如果节点的左子树与右子树相同且为NULL int num=0;void GetLeavesNum(BN* a){ if (a == NULL) return; if (a->lchild == NULL && a->rchild == NULL) { num++; } GetLeavesNum(a->lchild); GetLeavesNum(

  • BN和dropout在预测和训练时的区别。2021-01-27 11:01:03

    Batch Normalization和Dropout是深度学习模型中常用的结构。但BN和dropout在训练和测试时使用却不相同。 Batch Normalization BN在训练时是在每个batch上计算均值和方差来进行归一化,每个batch的样本量都不大,所以每次计算出来的均值和方差就存在差异。预测时一般传入一个样本,所以

  • 深度学习中眼花缭乱的Normalization学习总结2021-01-16 23:59:48

    点击下方标题,迅速定位到你感兴趣的内容 前言相关知识Batch Normalization(BN)Layer Normalization(LN)Weight Normalization(WN)Cosine Normalization(CN)Instance NormalizationGroup Normalization(GN)Normalization的不变性总结 前言 Github:本文代码放在该项目中:NLP

  • RepVGG: Making VGG-style ConvNets Great Again2021-01-16 12:32:46

    Abstract 本文提出一种简单而强有力的CNN架构RepVGG,在推理阶段,它具有与VGG类似的架构,而在训练阶段,它则具有多分支架构体系,这种训练-推理解耦的架构设计源自一种称之为“重参数化(re-parameterization)”的技术。 优势 Fast:相比VGG,现有的多分支架构理论上具有更低的Flops,但推

  • 【深度学习】深入理解Batch Normalization批标准化2021-01-10 19:32:31

    Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《Batch Normalizati

  • Batchsize不够大,如何发挥BN性能?探讨神经网络在小Batch下的训练方法2020-12-30 10:32:51

    由于算力的限制,有时我们无法使用足够大的batchsize,此时该如何使用BN呢?本文将介绍两种在小batchsize也可以发挥BN性能的方法。 前言 BN(Batch Normalization)几乎是目前神经网络的必选组件,但是使用BN有两个前提要求: batchsize不能太小; 每一个minibatch和整体数据集同分布。 不然

  • 开源项目|基于darknet实现量化感知训练,已实现yolov3-tiny所有算子2020-12-28 09:32:56

    计算机视觉工坊 今天   以下文章来源于极市平台 ,作者CV开发者都爱看的 极市平台 专注计算机视觉前沿资讯和技术干货,官网:www.cvmart.net 点击上方“计算机视觉工坊”,选择“星标” 干货第一时间送达 作者丨ArtyZe编辑丨极市平台 导读   training-aware-quantization是在

  • 实例:返回系统Home桌面2020-12-25 17:33:49

    文章目录 实例简介实现说明关键代码 实例简介 当用户点击按钮时,系统将会返回Home桌面,就像用户按HOME键一样。 实现说明 程序为Intent设置合适的Action、Category属性,并根据该Intent来启动Activity即可返回Home桌面。 关键代码 public class MainActivity extends AppCom

  • [CF1228E]Another Filling the Grid2020-12-23 22:31:16

    题目 传送门 to CF 传送门 to luogu 思路 首先考虑 d p \tt dp dp ,不行再换一个方法。 用 f (

  • 100.增减序列2020-12-20 15:36:43

    原题链接:100. 增减序列 解题思路 求出 a 的差分序列 b,其中 b1 = a1,bi = ai - ai-1(2 <= i <= n)。令 bn+1 = 0。题目对序列 a 的操作,相当于每次可以选出 b1,b2,...,bn+1 中的任意两个数,一个加一,另一个减一。目标是把 b2,b3,...,bn 变为全零。最终得到的数列 a 就是由 n 个 b1 构成的。

  • pytorch之添加BN的实现2020-12-16 20:34:30

    更多python教程请到: 菜鸟教程www.piaodoo.com 人人影视www.sfkyty.com 16影视www.591319.com 星辰影院www.591319.com pytorch之添加BN层 批标准化 模型训练并不容易,特别是一些非常复杂的模型,并不能非常好的训练得到收敛的结果,所以对数据增加一些预处理,同时使用批标准化能够得

  • Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference笔记2020-12-16 12:29:19

    #1提出问题:如何将复杂的CNNs成功部署到移动端等内存较小的设备中? 【本篇中,中文的中括号里代表的是注释】 解决方案主要分为两类:1.开发新的网络架构【exploit computation or memory efficient operations】【eg:MobileNet SqueezeNet ShuffleNet DenseNet】 2.量化CNN中的权重

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有