ICode9

精准搜索请尝试: 精确搜索
  • 女神在我玩王者的时候约我看电影,可我又不能挂机坑队友。那就只能写一个帮我打王者荣耀的AI了2021-11-11 18:03:06

    大家好,这里是为代码封神的封神榜(有点吹牛皮了,哈哈)。还是新人初来乍到,希望大家多多指教。 —————————————————— 不知道兄弟们有没有遇到这样的情况,当你正在玩王者的时候,战局焦灼。结果这时候心仪已久的女神(之一)发来一条消息,问我有时间一起看电影吗? 我这暴脾

  • 04 张量的线性代数运算2021-11-09 16:32:33

    一、矩阵的形变及特殊矩阵构造方法 Tensor矩阵运算 函数描述torch.t(t)t转置torch.eye(n)创建包含n个分量的单位矩阵torch.diag(t1)以t1中各元素,创建对角矩阵torch.triu(t)取矩阵t中的上三角矩阵torch.tril(t)取矩阵t中的下三角矩阵 # 创建一个2*3的矩阵 t1 = torch.ara

  • torch.clamp()函数 用于标签平滑2021-11-08 14:36:12

    用于标签平滑 torch.clamp(input, min, max, out=None) 将输入input张量每个元素的范围限制到区间 [min,max],返回结果到一个新张量。 input (Tensor) – 输入张量 min (Number) – 限制范围下限 max (Number) – 限制范围上限 out (Tensor, optional) – 输出张量 例 >>a = torch

  • range函数和arange函数的区别2021-11-02 22:03:17

    相同点:都可以生成一个一维的张量 不同点:range生成的一维张量,包含end元素,而arange生成的一维张量不包含end元素 注意: range函数由于与Python内置的range函数语义不同,已经被废弃了。因此大家都应该使用arange函数!

  • Pytorch Tutorial学习笔记(1)2021-10-31 11:30:00

    一、Tensor 张量 Tensor张量类似于数组和矩阵,用来表示模型的输入、输出和模型参数,即用来表示模型中的数据。Tensor可以在GPU上加速计算。 二、Tensor Initialization 张量初始化 有以下几种方式初始化一个张量: 直接通过数据 data = [[1, 2], [3, 4]] x_data = torch.tensor(d

  • NLP学记笔记22021-10-24 11:34:58

    文本张量的表示: 文本张量的作用:将文本表示成张量(矩阵)形式 文本张量表示的方法: 1.one-hot编码    独热编码,每个词为n个元素的向量,其中只有一个元素为1 2.word2vec 3.word embedding   #导入用于对象保存和加载的包 from sklearn.externals import joblib #导入keras中的词汇映射

  • Dive_into_Deep_Learning2021-10-21 10:00:31

    1.前言 1.2.关键组件 我们可以学习的数据(data)。如何转换数据的模型(model)。一个目标函数(objective function),用来量化模型的有效性。调整模型参数以优化目标函数的算法 2.预备知识 2.1.数据操作 2.1.1.入门 张量:n维数组; 无论使用哪个深度学习框架,它的张量类都与Numpy的ndarr

  • Pytorch——张量 Tensors2021-10-20 23:35:18

    张量 Tensors 1、torch.is_tensor torch.is_tensor(obj) 用法:判断是否为张量,如果是 pytorch 张量,则返回 True。 参数:obj (Object) – 判断对象 例子: torch.is_tensor(torch.rand(2,3)) True   2、 torch.is_storage torch.is_storage(obj) 用法:判断是否为pytorch Storage,如何

  • 2021-10-192021-10-19 21:58:41

    Lesson 6.动态计算图与梯度下降入门   在《Lesson 5.基本优化思想与最小二乘法》的结尾,我们提到PyTorch中的AutoGrad(自动微分)模块,并简单尝试使用该模块中的autograd.grad进行函数的微分运算,我们发现,autograd.grad函数可以灵活进行函数某一点的导数或偏导数的运算,但微分计算

  • 19.Eager模式2021-10-16 11:01:59

    Eager模式每进行一步输入就可以得出一步结果,我们下面直接用代码举例子 首先我们导入库,查看此时是否是eager模式,tensorflow2.0及以上的版本,默认开启eager模式 我们之前的项目均开启了Eager模式,下面介绍一个常见的张量操作 目录 1  计算获取张量 2  直接创建张量 tf.constan

  • torch.clamp()函数2021-10-14 19:33:53

    torch.clamp(input, min, max, out=None) 将输入input张量每个元素的范围限制到区间 [min,max],返回结果到一个新张量。 input (Tensor) – 输入张量min (Number) – 限制范围下限max (Number) – 限制范围上限out (Tensor, optional) – 输出张量   boxes_nms=torch.randint(-100

  • pytorch基础2021-10-13 12:58:31

    文章目录 下载安装:张量tensor简介0维张量/标量 标量是一个数字(scalar)1维张量/向量 1维张量称为“向量”。(vector)2维张量 2维张量称为矩阵(matrix)3维张量 :公用数据存储在张量 时间序列数据 股价 文本数据 彩色图片(RGB) (n-dimensional tensor) 创建tensortensor和numpy array

  • keras 的dot函数2021-10-09 23:34:22

    首先先弄清楚哪是0轴(-1轴),1轴(-2轴) 看下面例子: import tensorflow as tf x = tf.constant([[1, 2, 3], [4, 5, 6]]) y2 = tf.reduce_sum(x, axis = 0) print("沿着张量0轴方向求和:\n",y2.eval()) y3 = tf.reduce_sum(x, axis = 1) print("沿着张量1轴方向求和:\n",y3.eval())

  • Pytorch中的checkPoint: torch.utils.checkpoint.checkpoint2021-10-09 21:04:17

    torch.utils.checkpoint.checkpoint笔记,内容来源于官方手册 仅作笔记只用,不完整之处请查阅官方手册 https://pytorch.org/docs/stable/checkpoint.html checkpoint是通过在backward期间为每个checkpoint段重新运行forward-pass segment来实现的。 这可能会导致像 RNG 状

  • 像 NumPy 一样使用 TensorFlow2021-10-09 21:02:49

    张量和操作 可以使用tf.constant()创建张量 from IPython.core.interactiveshell import InteractiveShell InteractiveShell.ast_node_interactivity='all' import tensorflow as tf tf.constant([[1., 2., 3.], [4., 5., 6.]]) <tf.Tensor: shape=(2, 3), dtype=float32, n

  • pytorch学习32021-10-08 23:01:46

    tensor张量                                  

  • 01.数据操作2021-10-07 23:35:05

    文章目录 基本知识张量形状和元素的总个数改变一个张量的形状使用全0、全1、其他常量或者从特定分布中随机采样的数字通过提供包含数值的 Python 列表(或嵌套列表)来为所需张量中的每个元素赋予确定值 运算把多个张量连结(concatenate)在一起通过逻辑运算符构建二元张量对张量

  • 卷积神经网络卷积后尺寸大小计算2021-10-06 22:06:31

    卷积神经网络卷积后尺寸大小计算 1、无填充1.1 公式11.2 示例 2、有填充2.1.1 公式22.1.2 示例2.2.1 公式32.2.2 示例 1、无填充 1.1 公式1 H

  • TensorFlow是什么2021-10-06 17:03:10

      参考视频教程:    **Google老师亲授 TensorFlow2.0 入门到进阶  ** 1, 谷歌大神带你十分钟看懂TensorFlow 2 你真的懂TensorFlow吗?Tensor是神马?为什么还会Flow? 也许你已经下载了TensorFlow,而且准备开始着手研究深度学习。但是你会疑惑:TensorFlow里面的Tensor,也就是"

  • #pt#课堂笔记_5_pt实现线性回归2021-10-06 11:37:12

    1)第一步准备数据集,第二步设计模型,第三步构造损失和优化器,第四步写训练的周期,前馈(损失)反馈(反馈算梯度)更新(用梯度下降算法更新权重) 2)使用mini-batch风格,使用y_hat = wx+b,minibatch就是一次把三个样本的结果都求 出来。 广播就是把[1,2,3]T,扩充。扩充完了才能运算。下图的w

  • PyTorch Week 12021-10-05 15:31:30

    PyTorch Week 1 目录一、张量简介与创建Tensor 与 Variable张量的创建 二、张量操作与线性回归张量拼接与切分张量索引张量变换张量运算线性回归 三、计算图与动态图机制计算图动态图 VS 静态图 四、autograd五、逻辑回归对数几率回归与线性回归机器学习模型训练步骤 作业1

  • TorchVision官方文档翻译为中文-示例库Tensor转换与JIT-0022021-10-05 11:04:31

    此示例演示了张量图像上的图像变换现在支持的各种功能。特别是,我们展示了如何在GPU上执行图像转换,以及如何使用JIT编译编写它们的脚本。 在v0.8.0之前,torchvision中的转换传统上是以PIL为中心的,因此存在多个限制。现在,从v0.8.0开始,转换实现与Tensor和PIL兼容,我们可以实现以下

  • [Pytorch系列-28]:神经网络基础 - torch.nn模块功能列表2021-10-04 18:58:09

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120606523 目录 第1章 torch.nn概述 1.1 torch.nn简介与功能 第2章 torch.nn的组成与子模块 2.1 获取神经网络的模型参数 2.2

  • Tensorflow编程基础2021-10-04 18:33:45

    导语 这篇博客是在看慕课时写的,由于我的环境为TF2.3,在看慕课里TF1.*的代码的时候,运行起来就会出现种种问题,而我呢又不想直接去看TF2的内容,就一个个解决,记录下来,慕课链接放在下面,当然这篇博客会以TF2为主,毕竟主要还是用TF2的嘛,当然不一定完全哈。这一个板块的所有博客应该都会这样

  • 【自然语言处理】PyTorch 基础入门(必备基础知识)2021-10-01 17:00:13

    PyTorch 基础实践 PyTorch 基础安装 PyTorch创建张量张量类型和大小张量操作索引,切片和连接张量和计算图CUDA 张量 练习Solutions总结 PyTorch 基础 在本书中,我们广泛地使用 PyTorch 来实现我们的深度学习模型。PyTorch 是一个开源、社区驱动的深度学习框架。与 Theano

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有