ICode9

精准搜索请尝试: 精确搜索
  • 【忆臻解读】Andrej Karpathy提到的神经网络六大坑2021-03-24 22:07:30

    最近,李飞飞老师得意门生Andrej Karpathy大神在推特上连发几条twitter,细数了六种神经网络研究中的常见错误。下面我总结一下我学习过程中遇到下面6条中的4条。1you didn't try to overfit a single batch first正确解释@张楠 这句话是说在用大数据集训练之前先用小数据集试一下,排除

  • Pytorch深度学习(二)-手动实现线性回归2021-03-21 17:04:47

    上一讲中我们介绍了梯度下降,下面我们用PyTorch中的Autograd自动求导实现线性回归。 归纳而言,这篇会相对简单,主要包含以下几点: PyTorch Autograd 概念介绍利用 Autograd 替代手动求解导数实现 Autograd 方式的线性回归模型 一、PyTorch Autograd 概念介绍  具体查看官网:https

  • pytorch自定义不可导激活函数2021-03-20 18:32:23

    今天自定义不可导函数的时候遇到了一个大坑。 首先我需要自定义一个函数:sign_f import torch from torch.autograd import Function import torch.nn as nn class sign_f(Function): @staticmethod def forward(ctx, inputs): output = inputs.new(inputs.

  • Dive-into-DL-Pytorch第二章——梯度 读书笔记2021-03-18 16:29:38

    一、写在前面 本文是《Dive-into-Deep-Learning》一书中文Pytorch版本的第一章,梯度。到目前为止的内容较为轻松,主要是对pytorch的一些基本操作和概念的熟悉过程。建议可以参阅《Pytorch官方文档》辅助学习。 二、自动求梯度 在深度学习中,我们经常需要对函数求梯度(gradient)。P

  • 绘制手绘风格图片2021-03-18 10:01:17

    绘制手绘风格图片 基本原理 源代码 from PIL import Image import numpy as np a = np.asarray(Image.open("D:/日常撸代码/Python数据分析与展示/210317/猫片.jpg").convert('L')).astype('float') depth = 10 #(0-100) grad = np.gradient(a) #取图像灰度的梯度值 grad

  • 深度学习中的计算图整理与总结2021-03-17 12:30:26

    动态计算图 1. 计算图 计算图是用来描述运算的有向无环图 计算图有两个主要元素:结点(Node)和边(Edge) 结点表示数据,如向量,矩阵,张量。边表示运算,如加减乘除卷积等 用计算图表示: y =

  • 向Relay添加算子2021-03-14 08:32:25

    向Relay添加算子 为了在Relay IR中使用TVM算子,需要在Relay中注册算子,以确保将其集成到Relay的类型系统中。 注册算子需要三个步骤: 使用RELAY_REGISTER_OPC ++中的宏注册算子的Arity和类型信息 定义一个C ++函数为算子生成一个调用节点,并为该函数注册一个Python API挂钩 将上述Pyt

  • 卷积网络的可视化解释-类激活映射2021-03-12 10:34:14

    本文首发于:行者AI 在整篇文章论述开始之前,我们先做一些概念性的讲解铺垫。卷积神经网络的各层卷积单元在模型网络中实际上有充当了目标检测器的作用,尽管没有提供对目标位置的监督。虽然其拥有在卷积层中定位对象的非凡能力,但当使用全连接层进行分类时,这种能力就会丧失。基于此,提

  • model.eval()和with torch.no_grad()的区别2021-03-03 21:02:45

    这二者的功能是不同的: model.eval(): 告诉网络的所有层,你在eval模式,也就是说,像batchNorm和dropout这样的层会工作在eval模式而非training模式(如dropout层在eval模式会被关闭)。 with torch.no_grad(): 这行代码会关闭自动求梯度模块,因此pytorch不会为代码块中涉及到的计算分配存储

  • pytorch小技巧——修改tensor数值且不影响反向传播2021-02-28 00:00:21

    参考链接 https://tangshusen.me/Dive-into-DL-PyTorch/#/chapter02_prerequisite/2.3_autograd tensor.data 如果我们想要修改tensor的数值,但不希望被autograd记录(即不会影响反向传播),可以对tensor.data进行操作。例如: x = torch.ones(1,requires_grad=True) print(x.data)

  • pytorch之backward函数解释2021-02-23 19:01:39

      backward函数解释 :   一. 如果是标量对向量求导(scalar对tensor求导),那么就可以保证上面的计算图的根节点只有一个,此时不用引入grad_tensors参数,直接调用backward函数即可 代码如下:x = torch.ones(2, requires_grad=True) # x = [1,1,1]y = 2 * x[0] ** 3+ 2 * x[1] ** 3 #

  • TORCH.AUTOGRAD(自动求导)机制概述2021-02-17 15:33:22

    原文:https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html#further-readings torch.autograd是PyTorch的自动求导引擎,可以用来加速神经网络的训练。在本节,你将初步理解autograd是如何加速神经网咯训练的。 相关背景 神经网络(简称NN)是由一些内嵌函数组合而

  • PyTorch学习笔记——(4)autograd.grad()函数和backward()函数介绍及使用2021-02-16 21:00:22

    目录 1、`torch.autograd.grad()`2、`.torch.autograd.backward()`: 1、torch.autograd.grad() torch.autograd.grad( outputs, inputs, grad_outputs=None, retain_graph=None, create_graph=False, only_inputs=True, allow_unused=False) 参数

  • AI框架精要:设计思想2021-02-12 09:32:04

    AI框架精要:设计思想 本文主要介绍飞桨paddle平台的底层设计思想,可以帮助用户理解飞桨paddle框架的运作过程,以便于在实际业务需求中,更好的完成模型代码编写与调试及飞桨paddle框架的二次开发。 从编程范式上说,飞桨paddle兼容支持声明式编程和命令式编程,通俗地讲就是,静态图和动态图

  • PyTorch全连接ReLU网络2021-02-07 06:01:04

    PyTorch全连接ReLU网络 1.PyTorch的核心是两个主要特征: 一个n维张量,类似于numpy,但可以在GPU上运行 搭建和训练神经网络时的自动微分/求导机制 本文将使用全连接的ReLU网络作为运行示例。该网络将有一个单一的隐藏层,并将使用梯度下降训练,通过最小化网络输出和真正结果的欧几里得距

  • 机器学习七讲——最优化2021-02-05 22:04:38

    一、学习资料 北京博雅数据酷客平台大讲堂:http://cookdata.cn/auditorium/course_room/10018/ 案例分析:http://cookdata.cn/note/view_static_note/24b53e7838cde188f1dfa6b62824edbb/ 二、学习内容 1、机器学习模型的优化目标 2、随机梯度下降(SGD) 3、动量法(momentum) 4、二阶

  • PyTorch 的 Autograd2021-02-05 11:03:16

    PyTorch 作为一个深度学习平台,在深度学习任务中比 NumPy 这个科学计算库强在哪里呢?我觉得一是 PyTorch 提供了自动求导机制,二是对 GPU 的支持。由此可见,自动求导 (autograd) 是 PyTorch,乃至其他大部分深度学习框架中的重要组成部分。 了解自动求导背后的原理和规则,对我们写出一

  • PyTorch 神经网络2021-02-05 07:01:47

    PyTorch 神经网络 神经网络 神经网络可以通过 torch.nn 包来构建。 现在对于自动梯度(autograd)有一些了解,神经网络是基于自动梯度 (autograd)来定义一些模型。一个 nn.Module 包括层和一个方法 forward(input) 它会返回输出(output)。 例如,看一下数字图片识别的网络:      

  • PyTorch 自动微分2021-02-05 06:32:04

    PyTorch 自动微分 autograd 包是 PyTorch 中所有神经网络的核心。首先简要地介绍,然后将会去训练的第一个神经网络。该 autograd 软件包为 Tensors 上的所有操作提供自动微分。是一个由运行定义的框架,这意味着以代码运行方式定义后向传播,并且每次迭代都可以不同。从 tensor 和 grad

  • Pytorch RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn2021-02-03 20:00:06

    原因:  loss = loss1 + loss2, 而loss这个tensor默认的requires_grad是False,因此执行loss.backward()时会报标题的错误 解决办法: 将loss这个tensor的requires_grad属性设为True loss.requires_grad_(True)  

  • 深度学习与PyTorch | PyTorch完成线性回归 | 062021-02-03 18:04:03

    目录向前计算计算过程requires_grad和grad_fn梯度计算线性回归 向前计算 对于pytorch中的一个tensor,如果设置它的属性.requires_grad=True,那么将会追踪对于该张量的所有操作. 或者可以理解为: 这个tensor是一个参数,后续会被计算梯度,更新该参数. 计算过程 如果x为参数,需要对

  • (转)SignSGD 及其 MXNet 实现解读2021-02-02 20:01:55

    原文:https://zhuanlan.zhihu.com/p/112346480 论文笔记:SIGNSGD: compressed optimisation for non-convex problems 这是一篇来自 Caltech,Amazon AI 和 UC Irvine 的文章。 名字非常的直白,方法也异常的简单(简单并不简单)。 总结起来就是: SGD里面,梯度真正有用的是方向而不是大

  • pytorch中 += 操作被视为是原地操作2021-02-01 19:59:27

    Microsoft Windows [版本 10.0.18363.1316] (c) 2019 Microsoft Corporation。保留所有权利。 C:\Users\chenxuqi>conda activate ssd4pytorch1_2_0 (ssd4pytorch1_2_0) C:\Users\chenxuqi>python Python 3.7.7 (default, May 6 2020, 11:45:54) [MSC v.1916 64 bit (AMD6

  • pytorch练习2021-01-29 22:03:24

    1、使用梯度下降法拟合y = sin(x) import numpy as np import torch import torchvision import torch.optim as optim import torch.nn as nn import torch.nn.functional as F import time import os from skimage import io, transform import matplotlib.pyplot as plt from

  • grad-cam用于SSD目标检测2021-01-29 20:59:28

    参考链接: jacobgil/pytorch-grad-cam 代码: import torch import argparse import cv2 import numpy as np import torch.nn as nn from torch.autograd import Function from torchvision import models, transforms from ssd import SSD from nets.ssd import get_ssd f

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有