ICode9

精准搜索请尝试: 精确搜索
  • 超详细!CP、Tucker分解2021-03-02 13:01:46

    本文旨在对张量的CP、Tucker分解进行超详细讲解,希望能够帮助读者对这俩张量分解算法有深刻的理解。 本文主要分成三个部分:section1主要介绍Notation and Preliminaries、section2介绍CP分解、section3介绍Tucker分解 Introduction 首先,给出本文最关键的一个点: 这两种张量分

  • 关于csv文件转化为张量2021-03-01 17:32:30

    1使用pandas导入 train = pd.read_csv('train_data_head_Chinese.csv', encoding="gb18030") 如果是用的中文的话,记得encoding参数设置为gb18030 2 获取值 pandas是一个数据框,里面也含有表头。我们只关心它的内容,所以,我们使用.values方法来获取 具体操作为: data = train.val

  • pytorch 创建tensor2021-02-28 16:31:07

    pytorch 创建tensor 先看下面一张图 通过上图有了一个直观了解后,我们开始尝试创建一下。 先创建一个标量和一个向量 a = torch.tensor([1]) #标量 print(a) print(a.size(),a.size(0),a.shape) b = torch.tensor([1,2]) #向量 print(b) print(b.size(),b.size(0),a.shape)

  • 张量的计算2021-02-26 13:00:09

    张量的计算 数学运算 四则运算 ±*(@)/,必须满足矩阵运算的条件 加.表示矩阵对应位置进行操作 高维矩阵乘法 torch.matmul(a,b)对a,b的最后两维度进行矩阵乘法,其他维度不变。高维矩阵的乘法计算,本质上是支持了多个矩阵乘法的并行计算 判断相等 torch.eq(a,b) 乘方 .pow(2)或

  • 【tf.wiki】01_TensorFlow基础 (简介+基本tf属性+简单API)2021-02-23 17:36:37

    TensorFlow 基础 本章介绍 TensorFlow 的基本操作。 原文链接 https://tf.wiki/zh_hans/basic/basic.html TensorFlow 1+1 我们可以先简单地将 TensorFlow 视为一个科学计算库(类似于 Python 下的 NumPy)。 首先,我们导入 TensorFlow: import tensorflow as tf %%python --version p

  • NVIDIA GPU上的Tensor线性代数2021-02-20 08:34:42

    NVIDIA GPU上的Tensor线性代数 cuTENSOR库是同类中第一个GPU加速的张量线性代数库,提供张量收缩,归约和逐元素运算。cuTENSOR用于加速在深度学习训练和推理,计算机视觉,量子化学和计算物理领域的应用。使用cuTENSOR,应用程序会自动受益于常规性能的改进和新的GPU架构。 cutensor性能 cu

  • [转载] 如何用一个Python示例入门TensorFlow?2021-02-16 11:02:57

    参考链接: Python示例中的基本数据类型指南 最近,我向大家介绍了我的 side-project,是个用 C# 写的简单的神经网络项目。正如我在那篇文章中提到的,给出的解决方案离最优方案还差的太远。假如要达到专业化使用的程度,这个解决方案还需要使用更多的数学和矩阵乘法。幸运的是,Google 里

  • OneFlow 概念清单2021-02-15 07:01:04

    OneFlow 概念清单 本文将对 OneFlow 中涉及到的,常用的一些概念/名词做一个概括性的解释。主要内容针对算法工程师和框架开发者分为以下两部分: 算法开发 框架开发 在算法开发部分,将解释深度学习算法开发过程中常用的一些概念和名词,而在框架开发部分,则侧重于介绍 OneFlow 框架内部

  • 2021-02-112021-02-11 09:01:26

    广播 (broadcasting) 飞桨(PaddlePaddle,以下简称Paddle)和其他框架一样,提供的一些API支持广播(broadcasting)机制,允许在一些运算时使用不同形状的张量。 通常来讲,如果有一个形状较小和一个形状较大的张量,希望多次使用较小的张量来对较大的张量执行一些操作,看起来像是较小形状的

  • 广播 (broadcasting)2021-02-11 09:01:05

    广播 (broadcasting) 飞桨(PaddlePaddle,以下简称Paddle)和其他框架一样,提供的一些API支持广播(broadcasting)机制,允许在一些运算时使用不同形状的张量。 通常来讲,如果有一个形状较小和一个形状较大的张量,希望多次使用较小的张量来对较大的张量执行一些操作,看起来像是较小形状的张量

  • TensorRT笔记(10)使用循环2021-02-10 12:01:47

    使用循环 9.使用循环 9.1 定义循环 9.2 形式语义学 9.3 嵌套循环 9.4 局限性 9.5 用循环替换IRNNLayer和IRNNv2Layer 9.使用循环 NVIDIA®TensorRT™支持类似循环的结构,这对于循环网络很有用。 TensorRT循环支持扫描输入张量,张量的递归定义以及“扫描输出”和“最

  • 矩阵分析及应用(10章 - 张量分析)2021-02-08 22:29:36

    张量的纵向展开  P573     本章笔记以后补充  

  • TensorRT笔记(6)使以混合精度工作2021-02-07 21:04:18

    以混合精度工作 5.以混合精度工作5.1 使用C ++ API的混合精度5.1.1 使用C ++设置层精度5.1.2 使用C ++启用TF32推理5.1.3 使用C ++启用FP16推理5.1.4 使用C ++启用INT8推理5.1.4.1 使用C ++设置每张动态范围5.1.4.2 使用C ++进行INT8校准 5.1.5 使用C ++以显式精度工作使用

  • pytorch入门教程:张量初始化与基本运算2021-02-05 13:04:44

    在正式入门pytorch之前,首先回顾以下numpy的一些基本操作: 首先导入numpy包 import numpy as np 创建numpy的ndarray数组的方式主要以下3种: list转变为np.array a1 = [[1, 2], [3, 4]] a1 = np.array(a1) 创建自定义大小的随机数组 a2 = np.random.rand(2, 3) 创建特殊矩阵

  • 速读-张量流处理器(TSP)2021-02-03 12:31:39

    Paper: Abts, Dennis, et al. “Think fast: a tensor streaming processor (TSP) for accelerating deep learning workloads.” 2020 ACM/IEEE 47th Annual International Symposium on Computer Architecture (ISCA). IEEE, 2020. 简介 本文介绍了一种名为张量流处理器(

  • pytorch60分钟快速入门之<张量>2021-02-02 20:31:50

    张量 原文: https://pytorch.org/tutorials/beginner/blitz/tensor_tutorial.html#sphx-glr-beginner-blitz-tensor-tutorial-py 张量如同数组和矩阵一样, 是一种特殊的数据结构。在PyTorch中, 神经网络的输入、输出以及网络的参数等数据, 都是使用张量来进行描述。 张量的

  • TensorFlow csv读取文件数据(代码实现)2021-01-30 13:32:03

    TensorFlow csv读取文件数据(代码实现) 大多数人了解 Pandas 及其在处理大数据文件方面的实用性。TensorFlow 提供了读取这种文件的方法。 前面章节中,介绍了如何在 TensorFlow 中读取文件,本文将重点介绍如何从 CSV 文件中读取数据并在训练之前对数据进行预处理。 将采用哈里森和鲁

  • PyTorch模型的保存加载以及数据的可视化2021-01-27 20:02:23

    文章目录 PyTorch模型的保存和加载模块和张量的序列化和反序列化模块状态字典的保存和载入 PyTorch数据的可视化TensorBoard的使用 总结 PyTorch模型的保存和加载 在深度学习模型的训练过程中,如何周期性地对模型做存档非常重要。 一方面,深度学习模型的训练是一个长期的过

  • PyTorch中对张量登记注册反向传播的钩子函数,并展示调用顺序2021-01-27 14:33:36

    参考链接: torch.Tensor.register_hook()的使用举例 总结说明:代码实验表面,反向传播计算梯度时的执行顺序是和前向计算相反的.这一点由钩子函数的执行顺序可以观察到,并且由保存梯度的列表中的内容顺序可以推断出来. 代码实验展示: import torch print(torch.__version__)

  • MindInsight张量可视设计介绍2021-01-23 08:32:20

    MindInsight张量可视设计介绍 特性背景 张量可视,能够帮助用户直观查看训练过程中的Tensor值,既支持以直方图的形式呈现Tensor的变化趋势,也支持查看某次step的具体Tensor值。Tensor包括权重值、梯度值、激活值等。 总体设计 Tensor可视主要是解析由MindSpore的TensorSummary算子记录

  • Python深度学习02:神经网络的数学基础2021-01-22 20:03:08

    2.1 初始神经网络 MNIST数据集:手写数字的灰度图像(28 像素×28 像素),包含 60 000 张训练图像和 10 000 张测试图像。 类:分类问题中的某个类别叫作类(class) 样本:数据点叫作样本(sample) 标签:某个样本对应的类叫作标签(label)   损失函数(loss function):网络如何衡量在训练数据上的性能,即网

  • 简述PyTorch2021-01-21 20:57:39

    文章目录 简述PyTorchPytorch的安装PyTorch包的结构PyTorch的主要模块1.torch模块2.torch.Tensor模块3.torch.sparse模块4.torch.cuda模块5.torch.nn模块6.torch.nn.functional函数模块7.torch.nn.init模块8.torch.optim模块9.torch.autograd模块10.torch.distributed模块1

  • ​TensorFlow 零基础入门指南2021-01-20 23:02:34

    TensorFlow 零基础入门指南 TensorFlow 是一个开发源代码软件库,它可以进行高性能的数值计算与分析,借助其灵活的架构,可以将其部署到多种平台(CPU、GPU、TPU)和设备(桌面设备、移动设备、集群)。TensorFlow 为机器学习和深度学习提供了很多强有力的支持,本篇文章小编为大家整理了很多 Tens

  • 张量——Tensor2021-01-20 22:58:28

    文章目录 前言一、张量是什么?二、张量的属性三、张量创建3.1 依据原有数据创建3.1.1. torch.tensor()3.1.2 torch.from_numpy() 3.2 数学方法创建3.2.1 torch.zeros()3.2.2 torch.ones()3.2.3 torch.fill()3.2.4 torch.arange()3.2.5 torch.linspace()3.2.6 torch.logspace

  • PyTorch - 23 - 神经网络批处理 - 将图像批传递到PyTorch CNN2021-01-12 20:31:17

    PyTorch - 23 - 神经网络批处理 - 将图像批传递到PyTorch CNN Passing A Batch Of Images To The NetworkFashion MNIST ClassesUsing Argmax: Prediction Vs LabelConclusion Passing A Batch Of Images To The Network 准备数据建立模型 a. 了解批处理如何传递到网络训

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有