ICode9

精准搜索请尝试: 精确搜索
  • Q准则涡识别方法2022-02-02 17:04:46

    Q准则(Q Criterion)在涡识别中计算效率高,效果也不错,是一种常用涡方法。 了解Q准则需要从速度梯度张量入手,而速度梯度张量可以分解成两部分 \[\frac{\partial u_i}{\partial x_j} = 0.5\left[ \frac{\partial u_i}{\partial x_j} + \frac{\partial u_j}{\partial x_i}\right] + 0.5\l

  • 《Towards Model Compression for Deep LearningBased Speech Enhancement》2022-02-02 15:02:00

    研究动机 近年来都在使用深度学习的语音增强。但是,做增强需要一个大的深度网络,但是大的网络就意味着更大的内存和计算量,这样的话,对硬件就会有更高的要求,不是很友好。所以这篇文章提出了两种压缩模型的方法,可以有效的减少模型的尺寸,减小模型尺寸用到了三种不同的技术:稀疏正则化、

  • pytorch常用API2022-01-31 17:33:38

    · torchvision.utils.make_grid(): make_grid的作用是将若干幅图像拼成一幅图像。其中padding的作用就是子图像与子图像之间的pad有多宽。 · torch.clamp(): 将输入input张量每个元素的夹紧到区间 [min,max][min,max],并返回结果到一个新张量。

  • PyTorch中常用的一些函数2022-01-30 18:01:14

    主要用于记录一些比较常用的函数,便于查找。未记录的可查看PYTORCH TUTORIALS,PyTorch中文文档 目录torch.unsqueezetorch.transposetorch.nn.Lineartorch.tensor.repeattorch.tensorviewtorch.cat(tensors, dim=0, *, out=None) torch.squeeze(input, dim=None, *, out=None) tor

  • pytorch张量2022-01-29 21:30:00

    import torch a=torch.randn(2,3)#随机生成2行3列的矩阵,默认torch.FloatTensor类型 print(a) print(a.type()) print(a.shape) 输出 tensor([[ 0.8583, 0.0906, -1.2922], [-0.6729, -0.6208, -1.0874]]) torch.FloatTensor torch.Size([2, 3]) import cv2 a=torch.ra

  • [源码解析] 模型并行分布式训练Megatron (1) --- 论文 & 基础2022-01-27 19:00:58

    [源码解析] 模型并行分布式训练Megatron (1) --- 论文 & 基础 目录[源码解析] 模型并行分布式训练Megatron (1) --- 论文 & 基础0x00 摘要0x01 Introduction1.1 问题1.2 数据并行1.3 模型并行1.3.1 通信1.3.2 张量并行1.3.3 流水线并行1.4 技术组合1.5 指导原则0x02 张量模型并行(T

  • [源码分析] Facebook如何训练超大模型--- (5)2022-01-26 09:02:45

    [源码分析] Facebook如何训练超大模型--- (5) 目录[源码分析] Facebook如何训练超大模型--- (5)0x00 摘要0x01 背景0x02 思路2.1 学习建议2.2 具体思路2.3 最佳实践0x03 具体实现3.1 Wrapper3.2 如何使用3.2 _checkpointed_forward3.2.1 处理输入3.2.2 非张量输出3.2.2.1 压缩非张

  • 怎么取张量tensor(261.)中的值2022-01-23 10:02:00

    tensor(261.) print('xyxy:',xyxy,names[c],conf) # print('xyxy:',xyxy,names[c], f'{conf:.2f}') print('范围:',f'{xyxy[0]:.2f}' + ',' + f'{xyxy[1]:.2f}' + ',' + f'{xyxy[2]:.2f}

  • PyTorch数据操作2022-01-17 22:30:17

    导入torch import torch 张量(Tensor)表示由一个数值组成的数组,这个数组可能具有多个维度,具有一个维度的数组是向量(vector),具有两个维度的数组是矩阵(matrix)… arange创建一个行向量x shape属性输出张量的形状 numel()张量中元素的个数 x = torch.arange(12) print(x) print

  • 鸿蒙培训第四阶段第三次任务2022-01-15 23:33:23

    1、张量(Tensor): a、各种数值数据可以为张量。 b、常数:scaler:0阶张量。 c、向量:vector:1阶张量。 d、矩阵:matrix:2阶张量。 2、张量的创建方式:   a、torch.Tensor(list)   b、torch.empty()/zeros()/ones()   c、torch.rand()/randint()/randn() 3、 tensor的数据类型和修改方

  • 从零认识XLA2022-01-02 12:05:38

      初识XLA   XLA的全称是Accelerated Linear Algebra,即加速线性代数。作为一种深度学习编译器,长期以来被作为Tensorflow框架的一个试验特性被开发,历时至今已经超过两三年了,随着Tensorflow 2.X的发布,XLA也终于从试验特性变成了默认打开的特性。此外, Pytorch社区也在大力推动XLA

  • 5 个PyTorch 中的处理张量的基本函数2022-01-02 10:36:42

    能够以准确有效的方式构建神经网络是招聘人员在深度学习工程师中最受追捧的技能之一。PyTorch 是一个 主要用于深度学习的Python 库。PyTorch 最基本也是最重要的部分之一是创建张量,张量是数字、向量、矩阵或任何 n 维数组。在构建神经网络时为了降低计算速度必须避免使用显式循环

  • 深度学习——动态计算图与梯度下降入门2021-12-30 17:02:32

    Lesson 6.动态计算图与梯度下降入门   在《Lesson 5.基本优化思想与最小二乘法》的结尾,我们提到PyTorch中的AutoGrad(自动微分)模块,并简单尝试使用该模块中的autograd.grad进行函数的微分运算,我们发现,autograd.grad函数可以灵活进行函数某一点的导数或偏导数的运算,但微分计算其

  • PyTorch 对类别张量进行 one-hot 编码2021-12-19 10:02:53

    参考: -TORCH.INDEX_SELECT -PyTorch 对类别张量进行 one-hot 编码 正文 index_select torch.index_select(input, dim, index, *, out=None) → Tensor - input (Tensor) – the input tensor. - dim (int) – the dimension in which we index - index (IntTensor or LongTenso

  • PyTorch与张量简介2021-12-19 08:32:24

    https://github.com/pytorch/pytorch PyTorch is a Python package that provides two high-level features: Tensor [张量] computation (like NumPy) with strong GPU acceleration Deep neural networks built on a tape-based autograd [自动梯度] system [365datascience]

  • 【01】tensorflow2基础2021-12-08 18:34:41

    文章目录 数据类型基本数据类型有通过TensorFlow的方式去创建张量tensor常见且有用的属性numpy转tensor 数据类型 几乎所有数据都可以叫张量(tensor),根据维度来区分,可以分为: 标量(Scalar)。单个的实数,如1.2, 3.4 等,维度(Dimension)数为0,shape 为[]。 向量(Vector)。n个

  • Pytorch函数1 torch.max\ torch.min\ torch.squeeze\ torch.unsqueeze\ torch.rand \randn \randint2021-12-04 23:59:52

    1.torch.max(input)         输入input:任何形状的张量         输出:返回输入张量input中所有元素的最大值 。 import torch a = torch.randn((3,4,5)) b = torch.max(a) # 返回所有张量中的最大值 print(a) tensor([[[-0.5234, -2.3275, 1.8327, 0.53

  • yolo系列之yolo v3【深度解析】2021-11-29 17:58:00

    原文 yolo_v3作为yolo系列目前最新的算法,对之前的算法既有保留又有改进。先分析一下yolo_v3上保留的东西: “分而治之”,从yolo_v1开始,yolo算法就是通过划分单元格来做检测,只是划分的数量不一样。采用"leaky ReLU"作为激活函数。端到端进行训练。一个loss function搞定训练,只需

  • Pytorch学习笔记之数据操作篇(以实践为主导)2021-11-21 21:58:37

    tensor操作篇   1. contiguous() 作用:强制拷贝一份tensor,让它的布局和从头创建的一模一样,但是两个tensor完全没有联系 使用场景:断开输入张量与输出张量的内存共享联系 参考链接 2. zero_() 作用:张量所有值置零 3. variable() 使用: variable(tensor) 作用:将张量转换为变量,用于

  • Pytorch 计算两个张量的欧式距离2021-11-20 11:33:11

    1.Pytorch计算公式 a,b为两个张量,且a.size=(B,N,3),b.size()=(B,M,3),计算a中各点到b中各点的距离,返回距离张量c,c.size()=(B,N,M)。不考虑Batch时,可以将理解:c的第i行j列的值表示a中第i个点到b中第j个点的距离。 import torch def EuclideanDistance(t1,t2): dim=len(t1.size()

  • 11/17日学习2021-11-17 21:35:11

    #P7-P   1、Tensorboard的使用 TensorBoard是一个可视化工具,它可以用来展示网络图、张量的指标变化、张量的分布情况等 from torch.utils.tensorboard import SummaryWriter  #引入类 tensorboard --logdir=绝对路径+事件文件所在文件夹名 --port=  #tensorboard --logdir=D:

  • Tensorflow的Tensor2021-11-17 21:34:02

    文章目录 张量的定义张量的创建张量对象的特征维度形状大小数据类型 张量运算索引 张量基本运算操纵形状广播 张量的特殊类型参差不齐的张量字符串张量稀疏张量 张量的定义 张量是TensorFlow的均匀型多维数组。它们非常类似于NumPy数组,并且它们是不可变的,这意味着一旦创

  • TensorFlow2.1中计算平方函数的tf.square()的用法2021-11-16 22:03:11

    功能:计算元素x里每一个元素的平方 tf.math.square ( x, name=None )   参数说明: x - 一个张量或者是稀疏张量。必须是下列类型之一:half, float32, float64, int32, int64, complex64, complex128.name - 操作的名字 (可选参数).示例如下: import tensorflow as tf a =

  • 张量的拼接2021-11-14 23:02:23

    张量的拼接有两种主要的基本策略: 不增加张量的维度,只增加某个维度方向的长度:cat()增加张量的维度,不增加单个维度方向的长度:stack()第2章 增加张量长度的拼接:cat()2.1 基本原理       2.2 函数说明功能:在不改变张量维度的情况下,通过增加张量在某个维度方向的长度,把两个张量拼接起来。

  • TensorFlowX.Y核心基础与AI模型设计03:AI模型编程常用(二)2021-11-14 19:00:04

    上一篇文章:TensorFlowX.Y核心基础与AI模型设计02:AI模型编程常用(一) AI模型编程常用(二) 7、创建变量 8、变量与计算图可视化 9、TensorFlow变量管理 10、变量保存与恢复(Saver) 保存变量 恢复变量 模型的保存与加载 参考 7、创建变量 对于神经网络而言,参数是一个重

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有