ICode9

精准搜索请尝试: 精确搜索
  • 6-2训练模型的3种方法——eat_tensorflow2_in_30_days2022-07-02 15:03:10

    6-2训练模型的3种方法 模型的训练主要有内置fit方法、内置train_on_batch方法、自定义训练循环。 注:fit_generator方法在tf.keras中不推荐使用,其功能已经被fit包含。 import numpy as np import pandas as pd import tensorflow as tf from tensorflow.keras import * #打印

  • 6-1构建模型的3种方法——eat_tensorflow2_in_30_days2022-07-02 13:15:11

    6-1构建模型的3种方法 可以使用以下3种方式构建模型: 使用Sequential按层顺序构建模型; 使用函数式API构建任意结构模型; 继承Model基类构建自定义模型。 对于顺序结构的模型,优先使用Sequential方法构建。 如果模型有多输入或者多输出,或者模型需要共享权重,或者模型具有残差连接等

  • torch训练和推理的模板2022-07-01 20:37:30

    def train(epoch):     model.train()     train_loss = 0     for data, label in train_loader:         data, label = data.cuda(), label.cuda()  # 将数据放入显卡         optimizer.zero_grad()         output = model(data)         loss = cri

  • 使用 pytorch 实现手写数字识别(GPU加速)2022-07-01 12:35:13

    Sample Code import torch import torchvision from torch.utils.data import DataLoader from torch import nn import torch.nn.functional as F import matplotlib.pyplot as plt n_epochs = 5 batch_size_train = 64 batch_size_test = 1000 learning_rate = 0.01 moment

  • DAST 代码分析2022-07-01 08:01:11

    DA部分 输入图片大小: input_size = (w, h) # input_size : <class 'tuple'>: (1024, 512) input_size_target = (w, h) # <class 'tuple'>: (1024, 512) 创建网络: 1 model = DeeplabMulti(num_classes=args.num_classes) 2 def DeeplabMulti(num_class

  • DRML(CVPR 2016)Pytorch复现2022-07-01 08:00:31

    参考 文献原文: Deep Region and Multi-label Learning for Facial Action Unit Detection 原文提供的代码:DRML Pytorch版本参考代码:DRML_Pytorch 复现过程参考: DRML复现 代码结构组织设计参考: ME-GraphAU 实验设定 数据集: 名字:DISFA+. 简介:一共有九个人的面部数据。每张图有12个

  • Neural Network模型复杂度之Batch Normalization - Python实现2022-06-30 23:36:10

    背景介绍 Neural Network之模型复杂度主要取决于优化参数个数与参数变化范围. 优化参数个数可手动调节, 参数变化范围可通过正则化技术加以限制. 本文从参数变化范围出发, 以Batch Normalization技术为例, 简要演示Batch Normalization批归一化对Neural Network模型复杂度的影响

  • MMDetection训练过程中不打印loss日志2022-06-30 22:02:57

    在一次配置RetinaNet时,发现无loss日志输出,但是GPU显存有占用,也有计算,同时数据预处理的CPU进程也在工作。 现有方案 查找资料,现有的解决方案认为,是log打印间隔太长,所以不输出。 遂修改log间隔至1,不改变 log_config = dict( interval=1, hooks=[ # dict(type='TextL

  • tensorflow中model.fit()用法2022-06-29 00:31:20

    tensorflow中model.fit()用法model.fit()方法用于执行训练过程 model.fit( 训练集的输入特征, 训练集的标签, batch_size, #每一个batch的大小 epochs, #迭代次数 validation_data = (测试集的输入特征,

  • Keras模型训练过程中loss为Nan情况分析与处理2022-06-20 20:03:47

    情景: 推荐召回模型训练,开始的几个epoch损失正常下降,在到某个epoch下loss突然为nan,但模型仍在继续training,最终在模型预测时,结果都为零。 查阅相关资料,可能的原因如下: 1)训练集中可能出现为NAN的特征; 2)自定义loss函数中,会存在分母为零的异常,可以加入微小的长度以保持其稳定性; 3)超参

  • 1103过拟合欠拟合2022-06-19 16:01:13

    点击查看代码 import math import numpy as np import torch from torch import nn from d2l import torch as d2l # 生成数据集 max_degree = 20 # 多项式的最大阶数 n_train, n_test = 100, 100 # 训练和测试数据集大小 true_w = np.zeros(max_degree) # 分配大量的空间 tr

  • 李宏毅机器学习p3机器学习基本概念 笔记2022-06-15 00:01:17

    机器学习基本概念 任务 Regression:通过输出的是一个数值 Classification:从给出的选项中做出一个选择 Structured Learning:产生一种结构(图像、文档) 如何找到范式呢 1.Function with unknown parameters 例: Model y=b+wx1 based on domain knowledge(基于我们日常的认知) b an

  • 0903Softmax简洁实现2022-06-13 19:02:28

    点击查看代码 import torch import torchvision from torch import nn from d2l import torch as d2l from torch.utils import data from torchvision.transforms import transforms batch_size = 256 train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size) # tran

  • 深度学习实践4(Tensor相关)2022-06-13 11:34:43

    注意: 1、w是Tensor,Tensor中包含data和grad,data和grad也是Tensor。grad初始为None,调用l.backward()方法后w.grad为Tensor,故更新w.data时需使用w.grad.data。 2、w是Tensor, forward函数的返回值也是Tensor,loss函数的返回值也是Tensor 3、本算法中反向传播主要体现在,l.backward()。调

  • 深度学习实践5 (pytorch相关API)2022-06-13 11:34:29

    PyTorch Fashion(风格) 1、prepare dataset 2、design model using Class # 目的是为了前向传播forward,即计算y-hat(预测值) 3、Construct loss and optimizer (using PyTorch API) 其中,计算loss是为了进行反向传播,optimizer是为了更新梯度。 4、Training cycle (forward,backward

  • 深度学习实践32022-06-13 11:33:40

    这次利用随机梯度下降,随机梯度下降法在神经网络中被证明是有效的。效率较低(时间复杂度较高),学习性能较好。 随机梯度下降和梯度下降相比区别在于: 1、损失函数由cost()更改为loss()。cost是计算所有训练数据的损失,loss是计算一个训练函数的损失。 2、梯度函数gradient()由计算所有

  • 人脸识别中的损失函数2022-06-12 13:04:15

    本文主要是针对人脸识别中的各种loss进行总结。   背景 对于分类问题,我们常用的loss function是softmax,表示为: ,当然有softmax肯定也有hardmax: ,softmax和hardmax相比,优势是更容易收敛,更容易达到one-hot。softmax鼓励特征分开,但是并不鼓励分的很开,对于人脸识别来说我们需要类

  • contrastive loss对比损失函数及梯度计算2022-06-12 12:33:27

    Contrastive loss 最初源于 Yann LeCun “Dimensionality Reduction by Learning an Invariant Mapping” CVPR 2006。 该损失函数主要是用于降维中,即本来相似的样本,在经过降维(特征提取)后,在特征空间中,两个样本仍旧相似;而原本不相似的样本,在经过降维后,在特征空间中,两个样本仍旧

  • 莫凡 pytorch2022-06-11 18:02:26

    1 什么是神经网络(机器学习) 输入层、隐藏层、输出层 首先由大量得带有标签的图片进行训练,当预测出错误的结果时,由正确结果和错误结果之间的误差进行反馈,不断进行调整,以获得更好的结果 通过激活函数对不同神经元的重要性进行调整,使得网络得到想要的结果 2 神经网络:梯度下

  • 【生成对抗网络学习 其二】GAN(keras实现)代码阅读笔记2022-06-11 12:03:58

    想来想去还是记录一下吧,主要是怕以后时间长忘了 好记性不如烂笔头 代码来自eriklindernoren的开源GAN实现:https://github.com/eriklindernoren/Keras-GAN 主要是添加了一些注解,大家可以参考原工程来看 因为dcgan本质上与gan没什么区别(在实现时就是把全连接层换成卷积层了而已),所以

  • CAIL2021-阅读理解任务-模型模块2022-06-09 14:33:46

    代码地址:https://github.com/china-ai-law-challenge/CAIL2021/blob/main/ydlj/baseline/model.py import torch from torch.nn import CrossEntropyLoss, BCELoss from torch import nn class MultiSpanQA(nn.Module): def __init__(self, pretrain_model): super

  • 神经网络与深度学习(邱锡鹏)编程练习6 RNN 加法进位实验 Jupyter导出版2022-06-08 09:33:10

    加法进位实验 本题为填空题,填入内容: def call(self, num1, num2): num1_emb = self.embed_layer(num1) # shape(b_sz, len, emb_sz) num2_emb = self.embed_layer(num2) # shape(b_sz, len, emb_sz) inp_emb = tf.concat([num1_emb, num2_emb], axis=-1) rnn_out = self.rnn_layer

  • Policy Distillation2022-06-07 00:03:57

    发表时间:2016(ICLR 2016) 文章要点:这篇文章考虑的情形是从一个RL的policy网络提取策略,迁移到另一个policy网络。其实就是知识迁移(Distillation is a method to transfer knowledge from a teacher model T to a student model),只是这里用到强化里面了。目的是可以用来做模型压缩,mult

  • [学习笔记]基于paddle(飞桨)的手写数字识别2022-06-06 12:04:50

    放暑假了,但是还没有期末考试。 这个学期也算是学了不少神奇的东西,那就先回顾整理一下吧。 先是跟着学长的步骤使用百度的paddlepaddle框架进行入门学习,以后应该会转移到pytorch框架。 首先就是深度学习之中的“hello world”使用MINST中的数据集进行手写数字识别。 分为几个步骤吧

  • KDDN2022-06-04 17:00:46

    KDDN(2020-CVPR) Distilling Image Dehazing with Heterogeneous Task Imitation 摘要 最先进的深度除雾模型在训练中往往是困难的。知识蒸馏使得利用教师网络训练学生网络成为可能。然而,大多数的知识蒸馏方法都是应用于图像分类、语义分割或者目标检测的,很少有研究将知识蒸馏应用

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有