ICode9

精准搜索请尝试: 精确搜索
  • 2-1张量数据结构——eat_tensorflow2_in_30_days2022-04-03 17:33:44

    程序=数据结构+算法 TensorFlow程序=张量数据结构+计算图算法语言 张量和计算图是TensorFlow的核心概念 TensorFlow的基本数据结构是张量Tensor。张量即多维数组。TensorFlow的张量和NumPy中的ndarray很类似 从行为特性来看,有两种类型的张量,常量constant和变量Variable 常量的值

  • 风控预测2022-03-30 13:02:06

    神经网络测试 import numpy as npimport tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets('C:/Users/CHANYING/Desktop/huadabing/data/bankloan.xls', one_hot=True)#每个批次的大小batch_size=100#计

  • 贴片式T卡的测试与应用2022-03-29 00:31:10

    ​ 在单片机或ARM所设计的产品中,无论其内存再大,也很难达到1G的。然而在面对大量的数据读写操作时,除了采用各种通讯手段及时将其上传外,那你只能选择就地存储,最常见的就是将它们存入SD卡或TF卡。 最近得到了一款米客方德出品的推出贴片式T卡,便考虑对其性能和用法加以探索。 由于各类

  • SimCSE的loss实现-tensorflow22022-03-28 20:33:34

    对比学习的核心就是loss的编写,记录下loss的tensorflow实现 def unsupervise_loss(y_pred, alpha=0.05): idxs = tf.range(y_pred.shape[0]) y_true = idxs + 1 - idxs % 2 * 2 y_pred = tf.math.l2_normalize(y_pred, dim = 1) similarities = tf.matmul(y_pred,

  • TensorFlow2 实现神经风格迁移,DIY数字油画定制照片,面试必问知识点2022-03-21 13:34:48

    []( )使用VGG提取特征 分类器CNN可以分为两部分:第一部分称为特征提取器 (feature extractor),主要由卷积层组成;后一部分由几个全连接层组成,输出类概率得分,称为分类器头 (classifier head)。在ImageNet上为分类任务预先训练的CNN也可以用于其他任务,这就是所谓的迁移学习 (tran

  • BERT预训练tensorflow模型转换为pytorch模型2022-03-20 23:02:37

    在Bert的预训练模型中,主流的模型都是以tensorflow的形势开源的。但是huggingface在Transformers中提供了一份可以转换的接口(convert_bert_original_tf_checkpoint_to_pytorch.py)。 但是如何在windows的IDE中执行呢? 首先,需要安装transformers (可以挂国内清华、豆瓣源之类的加速)

  • 成功配置tensorflow有感2022-03-20 21:03:52

    方法: 在anaconda-environment-create创建python3.6版本的名为py36的环境; 打开anaconda prompt, >>conda activate py36 >>conda install tensorflow==2.1 >>打开pycharm后,将setting里的环境调成虚拟环境py36 >>根据需要安装对应版本的库 可能会遇到的问题及解决: 1.若安装的虚拟

  • 【架构分析】Tensorflow Internals 源码分析4 - TF Core之MatMul Kernel 生命周期2022-03-20 20:32:26

    目录 概述 TF Core MatMul Kernel的生命周期 概述 本文基于Tensorflow r1.15源码 链接 ,以MatMul Kernel的整个生命周期为例来分析Tensorflow 最核心的Core是如何实现Kernel的注册、查找、运行 TF Core tensorflow/core 目录结构如上图,其中包含的代码相当多,如果直接看进

  • TF卡中Linux系统镜像备份与烧录2022-03-20 15:31:53

    树莓派、NVIDIA Jetson Nano等开发板的系统运行在TF卡上。可以将一张TF卡里的所有文件打包为镜像,备份并复制到另一张TF卡上。 备份 准备 待备份的TF卡、读卡器、Linux电脑。 需在Linux系统下操作,电脑磁盘空间需大于TF卡存储空间。 步骤 1、插入TF卡,执行以下命令,查看TF卡磁盘

  • LeetCode刷题笔记- 143.翻转链表2022-03-19 14:34:01

    LeetCode刷题笔记- 141.环形链表 不同速率同赛道相遇方案C代码注意点 不同速率同赛道相遇方案 C代码 /** * Definition for singly-linked list. * struct ListNode { * int val; * struct ListNode *next; * }; */ bool hasCycle(struct ListNode *head

  • TensorFlow2.8.0代码分析之例子label_image.py_函数load_graph2022-03-06 13:30:04

    本演示使用Google Inception模型对在命令行中传递的图像文件进行分类。 函数作用:载入图片,并返回图片。 函数声明情况如下:   函数声明文件如下:   函数流程图如下:   函数原始代码如下: def load_graph(model_file):   graph = tf.Graph()   graph_def = tf.GraphDef()   w

  • NLP常见库pip安装指令2022-03-05 20:02:04

    pip3 install --user numpy scipy matplotlib   pip install sugartensor     pip3 install -i https://pypi.tuna.tsinghua.edu.cn/simple tensorflow   tensorflow安装成功验证程序: import tensorflow as tf    hello = tf.constant('Hello, TensorFlow!')   

  • 【TensorFlow】关于张量(tensor)的基本操作——创建,切片2022-03-05 12:33:44

    1、创建张量 通过 tf.convert_to_tensor 函数可以创建新 Tensor,并将保存在 Python List 对象或者Numpy Array 对象中的数据导入到新 Tensor 中。 通过 tf.zeros()和 tf.ones()即可创建任意形状,内容为全0或全1的张量。 通过tf.fill(shape,value)可以创建全为自定义数值的张量,形状

  • tensorflow学习020——标量和自定义标量的tensorboard显示2022-03-03 18:00:36

    tensorboard通过读取tensorflow的事件文件来运行,tendorflow的事件文件包括了在tensorflow运行中涉及到的主要数据 点击查看代码 import tensorflow as tf import datetime import os (train_image,train_labels),(test_image,test_labels) = tf.keras.datasets.mnist.load_data(

  • Python的CNN笔记2022-03-02 19:02:39

    降维方法 有PCA(主成分分析)和LDA(线性判别分析,Fisher Linear Discriminant Analysis 1:Tensorflow中examples.tutorials.mnist中 input_data数据类 在tensorflow最初时一直用的就是最经典的mnist手写字符识别中的数据集了,而且在tensorflow中直接封装好的是mnist手写字符的数据集

  • Tensorflow(三) tf.keras的相关东西2022-03-02 17:58:12

    一 什么是Keras         Keras是一个由Python编写的开源人工神经网络库,可以作Tensorflow、Microsoft-CNTK和Theano的高阶应用程序接口,进行深度学习模型的设计、调试、评估、应用和可视化。         Keras相当于比Tensorflow和Theano更高一层的库,其可以以Tensor

  • 基于Flask编写一个简单的api接口2022-03-02 09:30:45

    安装Flask:pip install Flask import tensorflow as tf from flask import Flask model = tf.keras.models.load_model('模型路径')#加载模型 app = Flask(__name__) @app.route('/func')#路由,访问地址为http://localhost:5000/func,默认端口号是5000 def output_data():

  • elasticsearch算法之搜索模型(一)2022-03-02 08:33:21

    面对海量的信息,我们很容易被淹没在信息的海洋中;当我们需要查找某个信息的时候,我们就会输入能够体现我们意图的关键字,搜索引擎会通过解析我们的关键字从而构造相应的查询表示方法;然后搜索引擎通过构造的查询在内存存储的文档集合中查找跟用户需求相关的文档,并根据相关度进行排序;以

  • failed to allocate 2.00G (2147483648 bytes) from device: CUDA_ERROR_OUT_OF_MEMORY: out of memory2022-03-01 21:03:13

    显存充足,但是却出现CUDA error:out of memory错误 添加: import os # 设置程序使用的GPU编号:我用6号和7号显卡 os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' import numpy as np import keras import keras.backend as K import tensorflow.compat.v1 as tf tf.disable_v2_beha

  • 深度学习及图像分类阶段作业与阶段总结2022-02-27 18:02:11

    这目录 深度学习及图像分类阶段作业与阶段总结深度学习作业问题1:神经网络构建问题1代码用function API构建通过sequential的方式进行构建通过model的子类构建 问题2:特征图大小计算问题2答案问题3:特征图计算问题3答案: 图像分类作业问题:ResNet34代码模型构建利用fashionmnist

  • tensorflow 自动求导2022-02-26 16:31:43

    Example: import tensorflow as tf # 创建 4 个张量,并赋值 a = tf.constant(1.) b = tf.constant(2.) c = tf.constant(3.) w = tf.constant(4.) with tf.GradientTape() as tape:# 构建梯度环境 tape.watch([w]) # 将 w 加入梯度跟踪列表 # 构建计算过程,函数表达式 y

  • tf.convert_to_tensor()函数的使用 | 数据类型转换2022-02-26 11:33:01

    #将python的数据类型(列表和矩阵)转换成TensorFlow可用的tensor数据类型 import tensorflow as tf import numpy as np A = [1,2,3] B = np.array([1,2,3]) C = tf.convert_to_tensor(A) D = tf.convert_to_tensor(B) print(type(A), A) print(type(B), B) print(type(C), C) pri

  • Linux下对TF卡进行分区2022-02-25 16:01:47

    第一步查看TF卡的分区:ls /dev/sd* (因为我知道他是sdb所以我后面用的/dev/sdb*) 第二步删除原有分区:sudo pated -s /dev/sdb mklabel msdos (这里的sdb是我插上去得TF卡) 如果第二执行提示设备正在被使用则需要卸载设备 umount /dev/sdb1 (这里得sdb1是它之前分的区) 再执行s

  • Tensorflow2.0张量生成2022-02-25 12:03:25

      Tensorflow 1、tensor就是张量,多维数组,多维列表,阶表示张量的维数(dimension) 维数 阶 名字 例子 0-D 0 标量scalar s=1 2 3 1-D 1 向量vector V=[1,2,3] 2-D 2 矩阵matrix m=[[1,2,3],[4,5,6],[7,8,9]] n-D n 张量tensor t=[[

  • Tensorflow2 深度学习原理与实战2022-02-24 18:34:25

    目录 一、引言​ ​ 二、卷积神经网络(CNN) 三、生成对抗神经网络(GAN) 一、引言  二、卷积神经网络(CNN)   一共有七层,分别为: C1:第一次卷积; S2:第一次池化; C3:第二次卷积; S4:第二次池化; C5:第一次全连接层; F6:第二次全连接层; OUTPUT:输出层。 局部连接(权值共享):每个隐层神经元的

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有