ICode9

精准搜索请尝试: 精确搜索
  • 深度学习-Tensorflow2.0实现全连接神经网络2021-03-28 22:30:45

    1、数据和问题描述   本文采用Tensorflow实现全连接神经网络,对鸢尾花数据进行分类。首先加载数据集,代码如下: import tensorflow as tf from sklearn import datasets import numpy as np # 读取数据 x_data = datasets.load_iris().data y_data = datasets.load_iris().ta

  • Autoencoder 基于tensorflow2.0的代码2021-03-23 14:02:01

    具体原理不讲了,网上资料相当多,但是感觉直接可以用的代码不多,所以基于各种资料实现了代码。 第一,利用autoencoder降噪, 第一部分:数据准备  from tensorflow.keras.datasets import mnist (x_train, y_train), (x_test, y_test) = mnist.load_data() x_train = x_train.reshape((

  • 推荐模型DeepCrossing: 原理介绍与TensorFlow2.0实现2021-03-14 13:05:10

    DeepCrossing是在AutoRec之后,微软完整的将深度学习应用在推荐系统的模型。其应用场景是搜索推荐广告中,解决了特征工程,稀疏向量稠密化,多层神经网路的优化拟合等问题。所使用的特征在论文中描述为两个大类数值型(文中couting feature)和类别型。如下图 对于数值型特征可以直接拼接在E

  • [转载] TensorFlow2.0 学习 线性回归2021-02-25 09:02:57

    参考链接: Tensorflow 2.0:解决分类和回归问题 import numpy as np import tensorflow as tf   X = np.array([1, 2, 3, 4, 5], dtype=np.float32) y = np.array([10, 19, 31, 42, 53], dtype=np.float32)   # X = (X_raw - X_raw.min()) / (X_raw.max() - X_raw.min()) # y = (

  • Macbook m1芯片版本怎么安装tensorflow2.0和pytorch1.82021-02-18 23:29:04

    MACbook m1芯片怎么安装tensorflow和pytorch 秀一下最终结果环境准备安装conda创建tensorflow虚拟环境tensorflow测试代码完成tensorflow安装后再次搭建pytorch虚拟环境 秀一下最终结果 环境准备 从Python官网下载支持Apple Silicon的版本 https://www.python.org/down

  • TensorFlow2.0 RNN(LSTM) 预测sin函数2021-02-14 20:01:54

    https://yaju3d.hatenablog.jp/entry/2019/12/30/202503 代码 # tensorflow_version 2.0 import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Activation import matplotlib.pyplot as plt import panda

  • 2021-2-08 tensorflow2.0 Muzero2021-02-08 12:01:04

    参考资料: [1]ColinFred. 蒙特卡洛树搜索(MCTS)代码详解【python】. 2019-03-23 23:37:09. [2]饼干Japson 深度强化学习实验室.【论文深度研读报告】MuZero算法过程详解.2021-01-19. [3]Tangarf. Muzero算法研读报告. 2020-08-31 11:40:20 . [4]带带弟弟好吗. AlphaGo版本三—

  • Tensorflow2.0 用 tf.keras.applacations 迁移学习时如何在导入 imagenet 权重的同时保留分类层2021-02-03 12:57:59

    项目说明 在 Tensorflow2.0之tf.keras.applacations迁移学习 一文中,我们演示了如何将迁移学习层和自定义的分类层结合起来使用,但这里有个问题,就是当你再次打印结合后的模型的每层的名称时,会出现如下情况: import tensorflow as tf mobile = tf.keras.applications.MobileNet(

  • tensorflow2.0版本中输出常量变量2021-01-22 18:33:05

      在tensorflow2.0以前的版本中我们知道要输出需要调用Session模块 import tensorflow as tf data1 = tf.constant(2) data2 = tf.Variable(10,name = 'var') sess = tf.Session() print(sess.run(data1))    而在tensorflow2.0版本中不再有Session模块 import tensorflow

  • TensorFlow2.0学习笔记 2.3:激活函数2021-01-22 12:03:26

    激活函数 这一张图是我们上一讲实现鸢尾花分类时,用到的神经元模型 和它对应的前向传播公式 从公式可以看出,即使有多层神经元首尾相连,构成深层神经网络,依旧是线性组合,模型的表达力不够 这张图是1943年提出的MP模型 比上面的简化模型多了一个非线性函数,这个非线性函数,叫做激活

  • TensorFlow2.0学习笔记 2.1:神经网络优化过程——函数知识2021-01-22 10:00:30

    tf.where() np.random.RandomState.rand() np.vstack()

  • TensorFlow2.0学习笔记1.5:神经网络实现鸢尾花分类2021-01-22 09:01:34

    神经网络实现鸢尾花分类 我们用神经网络实现鸢尾花的分类需要三部 准备数据 包括数据集读入、数据集乱序、生成train和test(也就是永不相见的训练集和测试集)、把训练集和测试集中的数据配成输入特征和标签对 搭建网络 定义神经网络中所有可训练参数 优化可训练参数 利用

  • tensorflow2.0—— GAN实战代码2021-01-12 17:33:25

    from tensorflow import keras import tensorflow as tf from tensorflow.keras import layers import numpy as np import os import matplotlib.pyplot as plt # 设置相关底层配置 physical_devices = tf.config.experimental.list_physical_devices('GPU') assert l

  • TensorFlow2.0保存模型2021-01-09 19:03:08

    介绍 模型保存有5种:1、整体保存;2、网络架构保存;3、权重保存;4、回调保存;5、自定义训练模型的保存 1、整体保存:权重值,模型配置(架构),优化器配置 整个模型可以保存到一个文件中,其中包含权重值、模型配置乃至优化器配置。这样,您就可以为模型设置检查点,并稍后从完全相同的状态继续训练,

  • [tensorflow2.0]tensorflow中的子类、父类、超类2021-01-03 10:29:30

      在使用tensorflow2.0搭建自定义层时,经常会将kears.Model类和keras.layers.Layer类作为父类。通常,继承Model的子类用来定义外部模型,作为训练的对象。继承Layer类来定义内部计算块。   super() 函数是用于调用父类(超类)的一个方法。super() 是用来解决多重继承问题的,直

  • 基于CIRFA10数据集的多种CNN模型实现与分析(北大tensorflow2.0学习笔记)2020-12-31 11:01:22

    基于CIRFA10数据集的多种CNN模型实现与分析(北大tensorflow2.0学习笔记) 卷积神经网络(CNN)是近年来深度学习能取得突破发展的基石,他也被广泛应用于自然语言处理、推荐系统和语音识别等领域,本文按照一些经典神经网络出现的时间线,基于CIRFA10数据集,对算法的性能进行分析。本文

  • Tensorflow2.0学习笔记-数据集读入2020-12-22 13:03:37

    鸢尾花数据集读入 iris数据集中储存了鸢尾花花的,花萼长度宽度,花瓣长度宽度。以下函数加数据集中以链表形式存在的数据转换成表格进行输出。 from sklearn import datasets from pandas import DataFrame import pandas as pd x_data = datasets.load_iris().data # .data返

  • tensorflow2.0——auto_encoder实战2020-12-20 16:01:42

    import tensorflow as tf from tensorflow import keras import numpy as np import matplotlib.pyplot as plt from PIL import Image import os from tensorflow.keras import Sequential, layers import sys # # 设置相关底层配置 physical_devices = tf.config.experimenta

  • 使用tf.keras实现多层感知器(神经网络)的代码实现(tensorflow2.0基础入门2)2020-12-19 22:03:49

    ** 逻辑回归与交叉熵 ** 1)线性回归预测的是一个连续的值 2)逻辑回归给出的”是”和“否”的回答 3)逻辑回归的激活函数 采用的是(sigmoid激活函数) sigmoid函数是一个概率分布函数,即给定某个输入,它将输出为一个0到1的概率值 4)对于分类问题,我们最好的使用交叉嫡损失函数会更有效,交

  • Anaconda、Pycharm配tensorflow环境2020-12-17 10:00:02

    Anaconda、Pycharm配tensorflow环境踩的坑 Anaconda配tensorflow2.0.0解决pip版本问题解决Python 使用numpy报错问题 简单记一下重装系统后重新配tensorflow环境踩的坑(主要怕下次还不会又得去茫茫博客里试各种方法) Anaconda配tensorflow2.0.0 这部分一开始就参考了Anaco

  • tensorflow2.0官网demo学习笔记 语言理解Transformer模型2020-12-15 16:57:36

    tensorflow2.0官网demo学习笔记 语言理解Transformer模型 前言备注代码数据预处理位置编码遮挡(Masking)前瞻遮挡(look-ahead mask)按比缩放的点积注意力(Scaled dot product attention)多头注意力(Multi-head attention)点式前馈网络(Point wise feed forward network)编码与解码(Enc

  • tensorflow2.0保存和恢复模型3种方法2020-12-12 15:36:15

    更多python教程请到: 菜鸟教程www.piaodoo.com 人人影视www.sfkyty.com 方法1:只保存模型的权重和偏置 这种方法不会保存整个网络的结构,只是保存模型的权重和偏置,所以在后期恢复模型之前,必须手动创建和之前模型一模一样的模型,以保证权重和偏置的维度和保存之前的相同。 tf.keras.

  • 《TensorFlow2.0》前馈神经网络和 BP 算法2020-12-09 00:01:19

    导读:什么是人工神经网络?人工神经网络有哪些分支?什么是前馈神经网络?神经网络如何使用反向传播?如何用keras搭建一个前馈神经网络架构?通过本篇文章,我们来解决以上问题。在阅读本篇文章之前,希望你已经了解感知器,SVM,成本函数,梯度优化。 一、人工神经网络 1、人工神经网络主要分

  • tensorflow2.0(三)----循环神经网络(RNN)2020-12-01 09:04:44

    class DataLoader(): def __init__(self): path = tf.keras.utils.get_file('nietzsche.txt',origin='http://s3.amazonaws.com/text-data') with open(path,encoding='utf-8') as f: self.raw_text = f.read().lower() self.chars =

  • tensorflow2.0(二)----卷积神经网络(CNN)2020-12-01 09:02:26

    使用Keras实现卷积神经网络 class CNN(tf.keras.Model): def __init__(self): super().__init__() self.conv1 = tf.keras.layers.Conv2D( filters = 32, kernel_size=[5,5], padding = 'same', activation = tf.nn.relu) self.pool1 = tf.keras.layers.M

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有