ICode9

精准搜索请尝试: 精确搜索
  • 5-6 评估指标metrics——eat_tensorflow2_in_30_days2022-06-29 22:34:01

    5-6 评估指标metrics 损失函数除了作为模型训练时候的优化目标,也能够作为模型好坏的一种评价指标。但通常人们还会从其它角度评估模型的好坏。 这就是评估指标。通常损失函数都可以作为评估指标,如MAE, MSE, CategoricalCrossentropy等也是常用的评估指标。 但评估指标不一定可以

  • tensorflow.js基本使用 线性回归(一)2022-06-29 14:01:58

    根据身高推测体重 const $ = require('jquery');const tf = require('@tensorflow/tfjs');const tfvis = require('@tensorflow/tfjs-vis'); /* 根据身高推测体重 */ //把数据处理成符合模型要求的格式function getData() { //学习数据 const heights = [150, 151, 160, 161, 16

  • tensorflow如何使用gpu2022-06-28 23:35:37

    https://blog.csdn.net/To_be_little/article/details/124438800   目录1、查看GPU的数量2、设置GPU加速3、单GPU模拟多GPU环境1、查看GPU的数量import tensorflow as tf# 查看gpu和cpu的数量gpus = tf.config.experimental.list_physical_devices(device_type='GPU')cpus = tf.c

  • [TensorFlow]01 张量2022-06-28 16:05:35

    张量 01 张量的形状 import tensorflow as tf a=tf.constant(4) # 标量a print(a) tf.Tensor(4, shape=(), dtype=int32) b=tf.constant([2.0,3.0,4]) # 向量 print(b) tf.Tensor([2. 3. 4.], shape=(3,), dtype=float32) c=tf.constant([[1,2],[3,4]]) # 2个轴,类比与单通道

  • 对比学习量化评价2022-06-28 16:01:16

    在超球面上通过对齐和一致实现理解对比表示学习 —— 论文阅读笔记 两个对比损失最关键的要素: 正例对特征的对齐(就是找最接近的正例对)。 超球面特征分布的均匀分布(可以保存最多的信息 torch 版本代码: # bsz : batch size (number of positive pairs) # d : latent dim # x : Te

  • 小白玩机器学习(6)--- 基于Tensorflow.js的在线手写数字识别2022-06-28 11:05:01

    https://blog.csdn.net/Sabrina_cc/article/details/106039240   一、题目要求1.三个js文件,分别完成:网络训练以及模型保存、模型加载及准确率测试、在线手写数字识别; 2.模型测试准确率要高于99.3%(尽量); 3.在线手写数字识别需要能够通过鼠标在画布中写入0~9数字,并进行实时识别,按空

  • 5-5损失函数losses——eat_tensorflow2_in_30_days2022-06-26 21:35:39

    5-5损失函数losses 一般来说,监督学习的目标函数由损失函数和正则化项组成。(Objective = Loss + Regularization) 对于keras模型,目标函数中的正则化项一般在各层中指定,例如使用Dense的 kernel_regularizer 和 bias_regularizer等参数指定权重使用l1或者l2正则化项,此外还可以用kerne

  • 查看GPU占用率以及指定GPU加速程序2022-06-24 15:04:22

    查看GPU占用率以及指定GPU加速程序 GPU占用率查看: 方法一:任务管理器 如图,GPU0和GPU1的占用率如下显示。       方法二:GPU-Z软件        下面两个GPU,上面是GPU0,下面是GPU1 sensors会话框里的GPU Load就是占用率 大家可以查看GPU0和GPU1的使用与否和使用率   方法三:终端

  • 4-5AutoGraph和tf.Module——eat_tensorflow2_in_30_days2022-06-23 23:34:09

    4-5AutoGraph和tf.Module 有三种计算图的构建方式:静态计算图,动态计算图,以及Autograph。 TensorFlow 2.0主要使用的是动态计算图和Autograph。 动态计算图易于调试,编码效率较高,但执行效率偏低。 静态计算图执行效率很高,但较难调试。 Autograph机制可以将动态图转换成静态计算图,兼

  • 4-4AutoGraph的机制原理——eat_tensorflow2_in_30_days2022-06-22 23:03:04

    4-4AutoGraph的机制原理 有三种计算图的构建方式:静态计算图,动态计算图,以及Autograph。 TensorFlow 2.0主要使用的是动态计算图和Autograph。 动态计算图易于调试,编码效率较高,但执行效率偏低。 静态计算图执行效率很高,但较难调试。 Autograph机制可以将动态图转换成静态计算图,兼

  • External-Attention-tensorflow(更新中...)(整理各种注意力机制)2022-06-21 16:02:29

    External-Attention-tensorflow(点击查看代码)

  • 报错AttributeError: module 'tensorflow' has no attribute 'Session'2022-06-17 21:04:49

    在新的Tensorflow 2.0版本中已经移除了Session这一模块。 tf.compat.v1.Session() 就可以获得与原先相同的输出信息。 其他类似的报错也可使用这种方法:'placeholder',tf.compat.v1.placeholder() 。   也可以将Tensorflow的版本降低,用pip安装 pip install tensorflow==1.14。

  • External-Attention-tensorflow(更新中)2022-06-17 16:03:30

    External-Attention-tensorflow 1. Residual Attention Usage 1.1. Paper Residual Attention: A Simple but Effective Method for Multi-Label Recognition---ICCV2021 1.2 Overview 1.3. UsageCode from attention.ResidualAttention import ResidualAttention import ten

  • lab4学习2022-06-15 22:04:40

    用户态和内核态(也称用户模式和内核模式): 它们是 CPU 运行的两种状态。根据 lab3 的说明,在 MOS 操作系统实验使用的仿真 R3000 CPU 中,该状态由 CP0 SR 寄存器中 KUc 位的值标志。 syscall_* 的函数是我们在用户空间中最接近的内核的也是最原子的函数,而 sys_* 的函数是内核中系统调用

  • 真丶随笔2022-06-11 23:36:42

    TF卡(小SD卡)的一个读入器 (类似于读卡器,把TF卡插进去就和大SD卡一样)   上面有一个开关,那个开关有个lock 的标识(对比下面两图) 之前一直没弄清楚那个有什么用 今天在电脑上面用这个卡的时候发现是只读的, 然后突然想起来之前玩过这个开关,就试了一下, 没想到真是它把TF卡读入权限

  • tf.data(二) —— 并行化 tf.data.Dataset 生成器2022-06-11 12:31:28

    在处理大规模数据时,数据无法全部载入内存,我们通常用两个选项 使用tfrecords 使用 tf.data.Dataset.from_generator() tfrecords的并行化使用前文已经有过介绍,这里不再赘述。如果我们不想生成tfrecord中间文件,那么生成器就是你所需要的。 本文主要记录针对 from_generator()的并

  • 2 Colab之GPU2022-06-08 21:37:34

    0 新项目 谷歌driver里面新建Colab文件,如下图所示: 如何设置GPU? 选择diam执行程序->更改运行时类型为GPU 1.验证GPU 查看是否为GPU设备 import tensorflow as tf tf.test.gpu_device_name() # 查看设备名字 查看显卡情况 !/opt/bin/nvidia-smi # 查看显卡情况 输出: 至此为止

  • 神经网络与深度学习(邱锡鹏)编程练习6 RNN 加法进位实验 Jupyter导出版2022-06-08 09:33:10

    加法进位实验 本题为填空题,填入内容: def call(self, num1, num2): num1_emb = self.embed_layer(num1) # shape(b_sz, len, emb_sz) num2_emb = self.embed_layer(num2) # shape(b_sz, len, emb_sz) inp_emb = tf.concat([num1_emb, num2_emb], axis=-1) rnn_out = self.rnn_layer

  • TensorFlow安装、使用与加速的心路历程2022-06-08 01:00:38

    记得最早接触的编程语言是大一那会的C语言,明明是为了单片机打基础,却没想到误打误撞的点亮了用python混毕设的技能树。当然,这一切都怪我叔在我大二放暑假那会怂恿我用树莓pi做毕设,当初看着那块小小的卡片机能当电脑用就觉得很神奇,后面想想似乎当办公电脑来用的话跟手机区别不大,外接

  • 深度学习框架对比2022-06-07 19:33:40

    一.caffe 1.1定义 Caffe 是以 C++/CUDA 代码为主,最早的深度学习框架之一,比 TensorFlow、Mxnet、Pytorch 等都更早,支持命令行、Python 和 Matlab 接口,单机多卡、多机多卡等都可以很方便的使用,CPU 和 GPU 之间无缝切换。对于入门级别的任务,如图像分类,Caffe 上手的成本最低,几乎不需要

  • 神经网络dnn 多分类模型2022-05-28 02:31:41

    import tensorflow.compat.v1 as tf # from tensorflow.examples.tutorials.mnist import input_data import os import pandas as pd import numpy as np from tensorflow.python.keras.utils import to_categorical os.environ['TF_CPP_MIN_LOG_LEVEL'] = '

  • 文档检索之BM252022-05-26 22:31:08

    本篇介绍文档检索排序算法:TF-IDF、BM25及其扩展。 TF-IDF TF-IDF 来源于一个最经典、也是最古老的信息检索模型,即“向量空间模型”(Vector Space Model)。向量空间模型就是希望把查询关键字和文档都表达成向量,然后利用向量之间的运算(点积或余弦相似度等)来进一步表达向量间的关系。

  • TensorFlow Lite 版的编译2022-05-24 13:32:36

    背景: 我在若干年前,在看一个类似于坦克大战的游戏的时候, 看到了其内部使用了 tf lite 的机器学习库,那个时候,我就对它有点兴趣, 后来由于工作原因,代码忘记了, 直到最近,想做点东西,想把这玩意拿回来,继续搞,开始,我自己编译一套库吧。   这里我只编 _c 的项目,因为我需要用它。   预先安装

  • TensorFlow(五)Module & Layer2022-05-16 20:00:07

    本章介绍如何利用TF中的Module和Layer构建模型Model。 Model在TF中的定义: 可以用来计算Tensor的函数(前向传递) 含有一些可以用于训练的变量 Module 大多数模型可以视为Layer的集合,在TensorFlow中常用的Keras和Sonnet,都基于tf.Module,这样一个模型构建基类。 下面是一个简单的Modul

  • 笔记3:Tensorflow2.0实战之MNSIT数据集2022-05-11 16:31:55

    最近Tensorflow相继推出了alpha和beta两个版本,这两个都属于tensorflow2.0版本;早听说新版做了很大的革新,今天就来用一下看看 这里还是使用MNSIT数据集进行测试 导入必要的库 import tensorflow as tf from tensorflow.keras import datasets, layers, optimizers, Sequential, me

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有