在跑网络的时候,报错TypeError:can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host_memory first. 错误在于:train_loss.append(loss.data) 和 valid_loss.append(loss.data)这两行代码,将loss.data改为loss.data.cpu(),也就是将C
# coding:utf-8 # 这是一个对mmdet训练结束后的json文件进行可视化的代码 # 主要是对log中记录的各种参数如:cls_loss, box_loss, mAP进行可视化 # 本方法已经经过测试,输出图片在out文件夹中 import json import matplotlib.pyplot as plt from collections import OrderedDict #
1. 关于GoogleNet: 2. Inception Module 3. 1*1 Convolution: 为什么使用1*1的卷积: 节省训练时间 4. Inception Module 的实现 代码: import torch import torch.nn as nn from torchvision import transforms from torchvision import datasets from torch.utils.data impor
import numpy as np import pandas as pd from keras.models import Sequential from keras.layers import Dense np.random.seed(10) # 指定乱数种子 # 载入数据集 df = pd.read_csv("D:/Keras/Ch05/diabetes.csv") dataset = df.values np.random.shuffle(dataset) # 使用
网络结构没什么可说的,基本还是沿用特征提取+head的思路 这篇论文主要的贡献在于相比语义分割,可以人工划定对应的row 采样步长,以及每个row对应的块宽度,从而实现针对一个区块进行分类,对性能整体加速非常明显 这里主要记录一下loss的计算过程 分类loss: (1) 将特征图按照行高划分
一、官方文档 torch.optimizer 优化器的定义 之后调用优化器的step方法 作用:就是利用得到的梯度对参数进行更新 相关优化器的算法 共同点:模型参数,学习速率,优化器自身的参数 二、案例 1. 代码 学习速率的设置:太大-模型不稳定,太小-速率太慢,一般由大到小设置 多
一、损失函数 作用:衡量实际输出和真实想要的结果之间的差距,越小越好 1. L1Loss 计算方法:每个对应值相减的绝对值求和,再取平均 案例 点击查看代码 import torch from torch.nn import L1Loss # 输入 inputs=torch.tensor([1,2,3],dtype=torch.float32) targets=torch.te
ssh端口映射 ssh -L 5000:127.0.0.1:5000 root@211.81.55.x -p xxx fairseq使用tensoboradX绘制loss pip install tensorboard tensorboardX --tensorboard-logdir ../logs/enro/loss/$tag
Github下载开源项目:https://github.com/deepfakes/faceswap anaconda 创建环境: conda create -n tf python=3.7 cd命令进入项目所在文件夹,进行安装 python setup.py INFO Running without root/admin privileges INFO The tool provides tips for installation
地址:https://github.com/taishan1994/doccano_export doccano_export 使用doccano标注工具同时导出实体和关系数据为空的解决办法。doccano版本:1.6.2。标注平台地址:https://github.com/doccano/doccano 安装 其实安装挺简单的: pip install doccano # Initialize database. doccano
pytorch笔记(一)——— 之GuitarYang的第一篇博客 一、准备数据 构建图片数据的两种方法: 第一种是使用 torchvision中的datasets.ImageFolder来读取图片然后用 DataLoader来并行加载。 第二种是通过继承 torch.utils.data.Dataset 实现用户自定义读取逻辑然后用 DataLoader来并行加
手写数字识别 复制代码后依次运行下面命令 python3 lenet5.py python3 train.py python3 test.py lenet5.py import torch.nn as nn class LeNet5(nn.Module): def __init__(self): super(LeNet5, self).__init__() self.conv1 = nn.Sequential( nn.Conv2d( # (1, 2
最近Tensorflow相继推出了alpha和beta两个版本,这两个都属于tensorflow2.0版本;早听说新版做了很大的革新,今天就来用一下看看 这里还是使用MNSIT数据集进行测试 导入必要的库 import tensorflow as tf from tensorflow.keras import datasets, layers, optimizers, Sequential, me
Generative Adversarial Nets 论文下载 基本概览 文中提到在此之前,深度生成模型没什么进展是因为在最大似然估计和相关策略出现的许多棘手的概率问题很难找到合适的计算方式,(这里说的是G和D的Divergence吗?不懂)以及在生成模型中那些已经在分类模型里很有用的分层线性单元的优势显现
1、当代码都调试后,使用gpu跑,出现: can't convert cuda:0 device type tensor to numpy.Use Tensor.cpu to copy the tensor to host memory first 此时根据提示,找到代码处的loss.detach().将其该成loss.detach().cpu().numpy()即可,原因:gpu式的tensor不能直接转成numpy 待更新!!!
ICLR 2022 | 超越Focal Loss!PolyLoss用1行代码+1个超参完成超车! 转自ICLR 2022 | 超越Focal Loss!PolyLoss用1行代码+1个超参完成超车!
参考这篇文章: https://blog.csdn.net/cxkyxx/article/details/108455805 我的理解:focal loss不是解决样本不平衡的问题,是解决hard/easy样本的问题。 平衡交叉熵 focal loss 样本平衡focal loss
先G后D 训练 G: ——S:pred1, pred2 = model(images) ; loss_seg1 = loss_calc(pred1, labels) ; loss.backward() ; ——T:pred_target1, pred_target2 = model(images) ;D_out1 = model_D1(F.softmax(pred_target1)) ;loss_adv_target1 = bce_loss(D_out1,(source_label)) ;loss
一、股票收益 1.1 总收益 vs 净收益 D t+1:t+1时刻的income yield P t+1: t+1时刻的 capital gain/loss R t+1: t+1时刻的总收益率 r t+1: t+1时刻的净收益率net return 1.2 净收益Net Return 的组成 收入收益 income yield:投资期间获得的股利/利息 -- 那么对于不分红的股
一、 General Guide——如何达到更好的效果 1. Training data 出现的问题 训练完一次模型后,根据训练集的损失以及测试集的损失来确定网络需要进行模型改进还是优化函数改进。 整体调整方向如下图所示: 如果你觉得模型预测的结果不满意的话,第一件事情你要做的事情是,检查你的t
Introduction 1. 概念 机器学习可以应用到很多场景中,例如语音识别、图像识别、AI智能下棋等。 它的输入可以是一段声音信号/图片/物体之间的位置关系,数据类型例如:Vector、Matrix、Sequence等。之后通过机器学习寻找一种将输入进行转化为你想要的输出结
Tensorflow简介 TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图,然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(Nodes)在图中表示数学操作,图中的边(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor).训
使用Keras实现MLP 一.使用顺序AP实现图像分类器 1.加载Fashion MNIST数据集,70000张灰度图像,每张图28*28像素,10个类。10个类都是衣物品. 2.使用Keras加载数据集 #导入kerasimport tensorflow as tf from tensorflow import keras #导入数据,并且分为训练
简介 TensorFlow是一个基于数据流编程的符号数学系统,被广泛应用于各类机器学习算法的编程实现。首先创建一个数据流流图,再将数据(以张量的形式存在)放在数据流图中计算。 鸢尾花分类问题 输入:花瓣长、花瓣宽、花萼长、花萼宽输出:三种类别 需要用到损失函数来不断寻找最优值,目的:寻找
1.TensorFlow介绍 2.TensorFlow基础知识 备注: 使用图 (graph)来表示计算任务. 在被称之为 会话 (Session) 的上下文 (context) 中执行图. 使用 tensor 表示数据. 通过 变量 (Variable) 维护状态. 使用 feed 和 fetch 可以为任意的操作(arbitrary operation) 赋值或者从其中