ICode9

精准搜索请尝试: 精确搜索
  • PyTorch - 21 - CNN Forward方法 - PyTorch深度学习实现2021-01-12 16:32:10

    PyTorch - 21 - CNN Forward方法 - PyTorch深度学习实现 Neural Network Programming Series (Recap)Reviewing The NetworkImplementing The `forward() `MethodInput Layer #1Hidden Convolutional Layers: Layers #2 And #3Hidden Linear Layers: Layers #4 And #5Outpu

  • numpy数组、pytorch张量的维度操作2021-01-02 16:29:32

    内容概要 写脚本时经常需要进行numpy的数组ndarray和pytorch张量tensor的维度操作,主要包括拼接、拆分、维度扩张和压缩等等。有关的方法很多,老是记不住,写一篇帖子记录一下。 参考:https://blog.csdn.net/pipisorry/article/details/108988615?utm_medium=distribute.pc_releva

  • 空间场数据可视化2020-12-31 21:00:07

    概述 场数据是一种特殊的数据类型,其中包含按照坐标或者拓扑结构存储的单元格,每个单元格中存储一个或多个属性值 场数据对连续的空间进行度量,这种度量可以是现实生活中测量,也可以是软件模拟。常见的度量,包括温度、速度、密度等。场数据大多与空间、时间或者地理位置相关,因此也

  • 双精度张量内核加快了高性能计算2020-12-30 14:33:25

    双精度张量内核加快了高性能计算 通过NVIDIA Ampere架构,仿真和迭代求解器可将FP64数学提高多达2.5倍。 模拟可以帮助了解黑洞的奥秘,并了解冠状病毒上的蛋白质尖峰如何导致COVID-19。还可以让设计师创建从时尚汽车到喷气发动机的所有东西。 但是仿真也是地球上最苛刻的计算机

  • 在cuDNN中简化Tensor Ops2020-12-28 07:32:40

    在cuDNN中简化Tensor Ops 在Tesla V100 GPU中引入神经网络模型以来,神经网络模型已迅速利用NVIDIA Tensor Cores进行深度学习。例如,基于Tensor Core的解决方案宣布了ResNet50训练的性能记录。 NVIDIA的cuDNN库 使CUDA程序员能够优化循环神经网络和卷积神经网络,以实现GPU加速。概述

  • TensorFlow入门2020-12-27 21:05:48

    作者:qxl 邮箱: 1183129553@qq.com 系列文章链接 一、tensorflow安装方式及问题汇总 二、TensorFlow入门 文章目录 系列文章链接前言基础概念计算图张量会话 神经网络参数与tensorflow变量通过TensorFlow训练神经网络模型完成神经网络样例程序 前言 tensorflow学习记录

  • Markdown语法学习2020-12-26 20:29:41

    文章目录 Markdown语法学习1. 代码块:2.标题:3.字体样式:4.引用:5.分割线:6.图片插入7.超链接8.序号9.表格10.目录 Markdown语法学习 1. 代码块: # 快速插入代码:三个```python import torch import numpy as np """ torch的tensor与numpy的ndarray之间的相互转换,所有CPU上的T

  • 神经网络论文收集2020-12-23 20:01:36

    神经网络论文收集 神经网络张量 神经网络 图神经网络(Graph Neural Networks,GNN)综述 link 张量 笔记 | 什么是张量(tensor)& 深度学习 link

  • 2D池化IPoolingLayer2020-12-18 14:04:42

    2D池化IPoolingLayer IPooling层在通道内实现池化。支持的池类型为最大, 平均 和 最大平均混合。 层描述:二维池化 使用张量上的2D滤波器计算池化a tensor A, of dimensions a, to produce a tensor B, of dimensions b。b的尺寸取决于乙 尺寸, 视窗大小 R,对称填充 p ,stride

  • 2.pytorch中升维度的操作及需要注意的点2020-12-15 19:03:27

    二、unsqueeze、unsqueeze_和None的使用及注意in_place操作 1.unsqueeze unsqueeze没有in_place,就不可以直接对原始张量进行赋值,需要重新对张量进行赋值。 image = torch.randn(3, 13, 13) # 升维,变成NCHW image = image.unsqueeze(dim=0) 2.unsqueeze_ unsqueeze_有in_pla

  • pytorch入门到项目(三)tensor的概念以及创建2020-12-13 15:01:36

    二、张量的简介与创建 2.1张量的概念 张量的概念:Tensor 张量是一个多维数组,它是标量、向量、矩阵的高维拓展 Tensor与Variable Variable是torch.autograd(torch.autograd.Variable)中的数据类型,主要用于封装Tensor 进行自动求导 data:被包装的Tensor grad:data的梯度 grad_fn:创

  • Relay张量集成2020-12-09 09:05:08

    Relay张量集成 Introduction NVIDIA TensorRT是一个用于优化深度学习推理的库。这种集成将尽可能多地减轻从中继到TensorRT的算子,在NVIDIA GPU上提供性能提升,而无需调整计划。              本文将演示如何安装TensorRT并在启用TensorRT BYOC和运行时的情况下构建TVM

  • 第2章 神经网络的数学基础2020-11-22 16:04:51

    2.2 神经网络的数据表示 张量:数字的容器。 2.2.1 标量(0D张量) 仅包含一个数字的张量叫做标量(scalar, 也叫标量张量,零维张量,0D张量) 使用ndim属性查看Numpy张量的轴的个数。标量张量有0个轴(ndim == 0)。张量轴的个数也叫阶(rank) import numpy as np x = np.array(12) x >>> arra

  • 基本概念2020-11-12 10:01:42

    统计数据类型 Numerical data: 有测量measurement的意义或者它们是一个计数,也叫做定量数据quantitative data - discrete: 可数的 - continuous: 表示测量,不可数的,用一个实数区间表示 Categorical data: 表示特征characteristics,也可用Numerical值表示,但它们没有数学意义。也叫做

  • VTK基本数据结构(3) 属性数据2020-11-03 16:01:59

    6.4 属性数据 属性数据(AttributeData)是与数据集的组织结构相关联的信息。由前面的内容可知,组织结构包括几何结构及拓扑结构,几何结构由点数据定义,拓扑结构由单元数据定义。因此,属性数据通常是与数据集的点数据或者单元数据相关联,但有时属性数据也可能与组成单元的某些成分相关联,

  • pytorch 的广播机制2020-10-31 17:01:47

    Torch,Numpy的Broadcasting Mechanism(广播机制) Python的pytorch 计算加速方法 以pytorch为例进行介绍 ====================================================================== (For more information, please go to Alan D. Chen , upgrading~~) Anaconda与conda区别 conda可

  • pytorch和tensorflow的爱恨情仇之基本数据类型2020-10-02 10:32:38

    自己一直以来都是使用的pytorch,最近打算好好的看下tensorflow,新开一个系列:pytorch和tensorflow的爱恨情仇(相爱相杀。。。) 无论学习什么框架或者是什么编程语言,最基础的就是其基本的数据类型了,接下来我们就一一看看吧。 1、python基本数据类型 数字型:整型、浮点型、布尔型、复数型

  • TensorFlow之张量2020-09-23 10:32:18

    目录 张量的概念 创建张量 张量的数据类型 NumPy数据转换 固定张量 全0张量 全1张量 元素值相同的张量 随机数张量 正态分布 截断正态分布 设置随机种子 均匀分布 序列张量 张量的运算 四则运算 平方、次方与开方 其他运算 重载运算符 矩阵乘法 张量的统计   回到

  • Pytorch中的张量复制2020-07-21 19:00:13

    pytorch提供了clone、detach、copy_和new_tensor等多种张量的复制操作,尤其前两者在深度学习的网络架构中经常被使用,本文旨在对比这些操作的差别。 1. clone 返回一个和源张量同shape、dtype和device的张量,与源张量不共享数据内存,但提供梯度的回溯。 clone后的返回值是个中间variab

  • 1.1tensorflow2.0 张量2020-07-21 16:31:46

    a = tf.constant([1,5],dtype=tf.int64) b = np.arange(0,5) c = tf.convert_to_tensor(b) d = tf.ones([3,4]) e = tf.random.normal([3,3]) f = tf.random.truncated_normal([4,2],mean=0.5,stddev=1) #更符合 g = tf.random.uniform([2, 2], minval=0, maxval=1)#tf.Tens

  • TensorFlow2学习(1)2020-07-08 19:37:10

    Tensorflow2学习(1) Tensorflow2学习(1)1 TensorFlow2学习1.1 张量(Tensor)1.1.1张量是多维数组(列表),用阶表示张量的维数:1.1.2创建一个Tensor1.2 常用函数1.3 简单实践(鸢尾花数据读取与神经网络分类)1.3.1 鸢尾花数据读取1.3.2 神经网络分类 1 TensorFlow2学习 1.1 张量(Tensor) 1.1.1张量

  • PyTorch入门基础2020-06-30 10:54:30

    本文是《深度学习入门之PyTorch》的读书笔记 Tensor:张量,表示多维的矩阵。 标量:0D张量,即一个点 向量:1D张量 矩阵:2D张量 3D张量与更高维度的张量 不同类型的Tensor。 32位浮点型:torch.FloatTensor,是torch.Tesnor的默认值 64位浮点型:torch.DoubleTensor 16位整型:torch.ShortTens

  • 深度学习框架集成平台C++ Guide指南2020-06-15 15:03:48

    深度学习框架集成平台C++ Guide指南 这个指南详细地介绍了神经网络C++的API,并介绍了许多不同的方法来处理模型。 提示 所有框架运行时接口都是相同的,因此本指南适用于所有受支持框架(包括TensorFlow、PyTorch、Keras和TorchScript)中的模型。 导入神经网络 最简单的导入方法如下: #in

  • pytorch(一)张量基础及通用操作2020-06-08 17:56:51

    1.pytorch主要的包: torch: 最顶层包及张量库 torch.nn: 子包,包括模型及建立神经网络的可拓展类 torch.autograd: 支持所有微分操作的函数子包 torch.nn.functional: 其他所有函数功能,包括激活函数,卷积操作,构建损失函数等 torch.optim: 所有的优化器包,包括adam,sgd等 torch.utils:

  • 张量的创建2020-06-07 21:55:46

    一、什么是张量? 张量是一个数学对象,它是对标量、向量和矩阵的泛化。张量可以表示为一个多维数组。 零秩张量就是标量。向量或者数组是秩为 1 的张量,而矩阵是秩为 2 的张量。简而言之,张 量可以被认为是一个 n 维数组。 TensorFlow 用张量这种数据结构来表示所有的数据。可以把一个

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有