ICode9

精准搜索请尝试: 精确搜索
  • 5:张量的基本运算2021-07-10 17:04:51

    1:基本运算符(重载的+-*/或者函数add(a,b),sub(a,b),mul(a,b),div(a,b))实现基本的加减乘除。    【注】可以用eq()函数查看两种不同运算之后的维度信息是否相同,all()函数可以查看对用维度的数据元素是否相同。 2:matmul/mm/@都是矩阵相乘    【注】mm仅仅适用于二维矩阵  

  • 4:张量操作2021-07-09 11:32:48

      1:view reshape合并维度      【注】:合并维度。 2:unsqueeze插入维度    【注】当参数为正数是在前面插入,为负数时在后面插入。

  • torch.nn.init2021-07-05 23:33:35

    函数描述torch.nn.init.calculate_gain(nonlinearity,param=None)对于给定的非线性函数,返回推荐的增益值torch.nn.init.normal(tensor, mean=0, std=1) 从给定均值和标准差的正态分布N(mean, std)中生成值,填充输入的张量或变量 torch.nn.init.constant(tensor, val) 用val的值

  • keras深度学习笔记-神经网络数学基础2021-07-05 20:29:46

    keras深度学习笔记-神经网络数学基础 keras深度学习笔记-神经网络数学基础神经网络的小测试:mnist网络结构:问题: 计算参数:参数计算检验: 搭建网络:训练网络:优化器:损失函数:正确率: 准备图像数据:准备标签批处理: 数据表示:区分张量维度:关键属性:用matplotlib来显示图片在numpy中操作

  • 张量的简介与创建2021-07-05 14:04:10

    1.variable封装Tensor,进行自动求导 data:被封装的Tensor grad:data的梯度 grad_fun:创建Tensor的方法,是求导的关键 requires_grad:表示是否需要梯度 is_leaf:表示是否是叶子节点 2.pyTorch0.4.0版本开始,variable并入Tensor dtype:张量的数据类型,如torch.cuda:表示数据存入cp

  • 1 预备知识2021-07-01 01:01:09

    2.1、张量初始化 import torch 几种初始化方式 torch.zeros((3,4)), torch.ones((1,2)), torch.tensor([[1,2,3], [4,54,5]]), torch.randn(5,6) 2.1.2、张量元素操作 1.对于应常数的+,-,乘,除, 张量对应元素位置进行加减乘除即可 2.使用== 和 > 和 < 比较各元素大小 a = torch.tenso

  • 标量,向量,矩阵与张量2021-06-30 11:51:56

    标量,向量,矩阵与张量 1、标量一个标量就是一个单独的数,一般用小写的的变量名称表示。   2、向量一个向量就是一列数,这些数是有序排列的。用过次序中的索引,我们可以确定每个单独的数。通常会赋予向量粗体的小写名称。当我们需要明确表示向量中的元素时,我们会将元素排列成一个方括

  • TensorFlow简介2021-06-29 14:00:20

    TensorFlow简介 本节将从五个方面对 TensorFlow 进行一个简单的介绍。包括 TensorFlow 是什么、为什么选择TensorFlow、TensorFlow 的发展、TensorFlow 能干什么以及 TensorFlow 的核心理念。 1. 什么是 TenosrFlow TensorFlow 是一个开源软件库,用于各种感知和语言理解任务

  • 统计数组或张量中全零行向量的个数2021-06-27 11:59:24

    mtx = np.arange(15).reshape(5,3) mtx[2,:] = np.zeros((1,3)) print(mtx) fr = np.count_nonzero(mtx,1) sec = np.not_equal(fr, 0) print(fr) print(sec) print(np.sum(sec)) 对于三维或者更高维度的数组,根据想要统计的情况,调整fr = np.count_nonzero(mtx,1) 中的维度即

  • Pytorch基本操作2021-06-27 09:58:14

    数值运算 1.张量对象已覆盖使用Python数值运算,并且运算符与普通运算符一样。张量—标量操作就是一种。 x=torch.ones(3,2)#新建一个3*2的张量 x tensor([[1., 1.], [1., 1.], [1., 1.]]) y=torch.ones(3,2)+2 y tensor([[3., 3.], [3., 3.],

  • torch.matmul2021-06-26 13:35:53

      0阶张量是一个标量。 1阶张量是一个向量。 2阶张量是一个矩阵。 如果俩个张量都是一维度,输出的结果是标量相乘。 如果俩个张量都是矩阵,输出的结果是矩阵乘积。 如果第一个是二维,第二个是一维张量,输出结果将第一个参数每一行看成一个向量与第二个进行向量积。(只有他需要注意) 如

  • 张量tensor 和张量分解 tensor decomposition2021-06-18 05:01:26

    Tensor 实际上是一个多维数组(multidimensional array) Tensor的目的是能够创造更高维度的矩阵、向量。                      

  • pytorch第02天 创建张量2021-06-17 21:00:32

    创建张量 1 rand,randn,randint,rand_like,rand_perm的使用2 张量类型与元素类型的关系3 填充函数4 arange与range函数5 randn(shape) 生成标准正态分布6 linspace7 单位矩阵8 今日重点 除了可以像上节课一样,使用.tensor(),.FloatTensor(),.Tensor()等函数来初始化一个张量,还可

  • 张量的索引、分片、合并以及维度调整2021-06-15 10:34:02

    文章目录 张量的符号索引一维张量索引二维张量索引 tensor.view()方法张量的分片函数分块:chunk函数拆分:split函数 张量的合并操作拼接函数:cat堆叠函数:stack 张量的符号索引 张量也是有序序列,我们可以根据每个元素在系统内的顺序“编号”,来找出特定的元素,也就是索引。

  • 【小白学习PyTorch教程】一、PyTorch基本操作2021-06-12 19:30:59

    @Author:Runsen 文章目录 什么是 PyTorch?张量张量运算PyTorch 和 NumPy的转换AutoGrad 什么是 PyTorch? 这是一个基于Python的科学计算包,面向两组受众: NumPy的替代品,以利用GPU的力量。 提供最大灵活性和速度的深度学习研究平台。 张量 张量类似于NumPy 的n 维数组,此外张量

  • 【偷偷学习深度学习】深度学习初探 and 数学基础2021-06-11 13:01:40

    先提第二部分,第一部分放后面了(如果没了解过深度学习的童鞋可以从第一部分开始看起)~ 文章目录 第二部分:深度学习的数学基础一.初识神经网络二.神经网络的数据表示1.张量1.1向量(1D张量)区分:5D向量和5D张量 1.2矩阵(2D张量)1.3 3D张量与更高维张量 2.关键属性3.在Numpy中操作张量

  • 【tensorflow】浅谈张量tensor2021-06-06 16:59:40

    0维张量/标量标量是一个数字1维张量/向量1维张量称为“向量”2维张量2维张量称为矩阵3维张量公用数据存储在张量 时间序列数据 股价 文本数据 彩色图片(RGB) 让我们先来看看tensor(张量)是什么? 张量=容器。它的核心是一个数据容器,多数情况下,它包含数字,有时候它也包含字符串,但这种

  • TensorFlow2.0高阶操作2021-06-05 20:56:38

    文章目录 1.张量合并 2.split 3.数据统计 4.张量排序 5.填充与复制 6.张量限幅 视频截图来源于b站: https://www.bilibili.com/video/BV1c741137Ki?from=search&seid=14306241578136111051 1.张量合并 2.split 3.数据统计 4.张量排序 5.填充与复制 6.张量限幅 根

  • 【TensorFlow2】从张量Tensor、图Graph、操作Operation到模型Model与层Layer2021-06-04 14:04:27

    张量Tensor、图Graph、操作Operation、会话Session 张量Tensor是TensorFlow的基本数据结构。张量在概念上等同于多维数组,Tensorflow的张量和numpy中的array很类似。从行为特性来看,有两种类型的张量,常量constant张量和变量Variable张量。. 接下来看这张图: 如图所示,张量[5, 3]进入

  • 新手必备 | PyTorch基础入门教程(一)2021-05-28 15:32:56

    文章目录 第一周 1. 安装 2. 张量Tensor 2.1 张量的概念 2.2 张量的构建 2.3 作业 3. 张量操作与线性回归 3.1 张量的操作 3.2 张量的数学运算 3.3 线性回归 4. 计算图与动态图机制 4.1 计算图 4.2 动态图机制 4.3 作业 5. autograd与逻辑回归 5.1 autogr

  • 【TensorFlow2】2.0版本后张量与计算图的构建2021-05-21 13:34:40

    问题概述 在初学TensorFlow2构建图和张量时发现网上的很多代码包括教程文档等都无法顺利运行,后来发现是因为网上的资源很多都是基于1.0版本的,而2.0版本的写法都变了,这里就张量与图作出一些总结。 张量简介 如果说程序=数据结构+算法,那么TensorFlow程序=张量数据结构+计算图算法语

  • PyTorch Tensor(二)2021-05-17 20:57:46

    Tensor常见命令 1.创建操作 1.1 torch.eye 返回一个2维张量,对角线位置全1,其它位置全0,返回值类型Tensor torch.eye(n, m=None, out=None) 参数: n (int ) – 行数m (int, optional) – 列数.如果为None,则默认为nout (Tensor, optinal) - Output tensor torch.eye(3) tensor(

  • 2.4神经网络的“引擎”:基于梯度的优化·2021-05-16 16:33:37

    每一个神经层都用下述方法对输入数据进行变换: output = relu(dot(w, input) + b ) 在这个表达式中,W 和 b 都是张量,均为该层的属性。它们被称为该层的权重(weight)或可训练参数(trainable parameter),分别对应 kernel 和 bias 属性。这些权重包含网络从观察训练数据中学到的信息。 一

  • pytorch 中repeat函数2021-05-13 13:31:11

    沿着指定的维度重复tensor。不同与expand(),本函数复制的是tensor中的数据。 扩展(expand)张量不会分配新的内存,只是在存在的张量上创建一个新的视图(view),一个大小(size)等于1的维度扩展到更大的尺寸。repeat沿着特定的维度重复这个张量,和expand()不同的是,这个函数拷贝张量的数据。

  • 基于VGG19神经网络的提取特征 进行 可见光与红外光的 图像融合 基于pytorch 实现。。。2021-05-13 09:04:05

    20210513 1.基于可见光与红外光的图像融合 说明  图像融合有很多方法  1.像素融合:没测试过 (1)可能就是单纯的图像加法 (2)速度可能会慢(3) 保留图像信息过多。。。。  2.特征融合: (1) 深度学习中的神经网络 获取图像特征 通过 pytoch VGG19 算法库 将图像转换到张量中去,重写forward

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有