ICode9

精准搜索请尝试: 精确搜索
  • 深度学习--在小型图像数据集上使用预训练的卷积神经网络2022-04-23 19:34:51

    文章目录 前言 一、使用预训练网络 二、将VGG16卷积基实例化 三、使用卷积基进行特征提取 1.不使用数据增强的快速特征提取 2.使用数据增强的特征提取 四、微调模型   前言 想要将深度学习应用于小型图像数据集,一种常用且非常高效的方法是使用预训练网络。 预训练网

  • 论文阅读《The Sketchy Database: Learning to Retrieve Badly Drawn Bunnies》2022-04-23 18:35:00

    如果没有啥基础的读者一定要看完这这个视频,然后看论文这样就好理解多了: https://www.bilibili.com/video/BV1vQ4y1R7dr?spm_id_from=333.337.search-card.all.click 1Learning a Cross-domain Mapping Overview:   在本节中,我们使用草图数据库来学习草图和照片的共享嵌入,这样学

  • YOLO-Pose: Enhancing YOLO for Multi Person Pose Estimation Using Object Keypoint Similarity Loss [222022-04-21 19:35:29

    YOLO-Pose: Enhancing YOLO for Multi Person Pose Estimation Using Object Keypoint Similarity Loss [2204.06806] 论文题目:YOLO-Pose: Enhancing YOLO for Multi Person Pose Estimation Using Object Keypoint Similarity Loss 论文地址:http://arxiv.org/abs/2204.06806

  • 长尾目标是什么?long-tail2022-04-21 19:33:15

        在实际的视觉相关任务中,数据都存在如上图所示的长尾分布,少量类别占据了绝大多少样本,如图中Head部分,大量的类别仅有少量的样本,如图中Tail部分。解决长尾问题的方案一般分为4种: Re-sampling:主要是在训练集上实现样本平衡,如对tail中的类别样本进行过采样,或者对head类别样本进

  • 在MATPool矩池云完成Pytorch训练MNIST数据集2022-04-18 10:32:39

    本文为矩池云入门手册的补充:Pytorch训练MNIST数据集代码运行过程。 案例代码和对应数据集,以及在矩池云上的详细操作可以在矩池云入门手册中查看,本文基于矩池云入门手册,默认用户已经完成了机器租用,上传解压好了数据、代码,并使用jupyter lab进行代码运行。 在MATPool矩池云完成Pytor

  • implement of Deep_learning Code2022-04-18 01:32:14

    Line_Model import torch import torch.nn as nn import math import random import numpy as np # 计算线性回归模型 梯度 def Cal_SGD_Linear(x, pred, label, lr, k, bias=0): g = 0 for (idx, item) in enumerate(pred): g += (item - label[idx]) * x[idx]

  • 反向传播2022-04-14 21:35:44

    视频地址:https://www.bilibili.com/video/BV1NE41147Nt?spm_id_from=333.880.my_history.page.click 笔记地址:https://blog.csdn.net/Jackydyy/article/details/117233027?spm=1001.2014.3001.5502   之前提出的线性模型 = wx,如果以神经网络的视角代入来看,即x为输入层,w为权重,为

  • TransReID: Transformer-based Object Re-Identification [2102.04378v2] - 论文研读系列(3) 个人笔记2022-04-13 09:33:52

    TransReID: Transformer-based Object Re-Identification [2102.04378v2] 论文题目:TransReID: Transformer-based Object Re-Identification 论文地址:http://arxiv.org/abs/2102.04378v2 代码:https://github.com/heshuting555/TransReID 21年2月文章 1、摘要简介 构建了一个基

  • CrossEntropy交叉熵基础2022-04-08 18:31:41

    CrossEntropy交叉熵基础 1、定义   度量两个分布的相似度 2、公式原理        3、应用 分类:onehot+crossentropy 为何在分类问题种使用ce而不是用mse, 1)mse对于分类问题的loss不准确   如 0.2,0.2,0.6 与0.0,0.4,0.6 y1的loss为0.24, y2loss为0.32, y1优于y2,实际使用mse过于严格

  • tf2 自定義loss加載報錯2022-04-06 16:33:08

    問題描述 ValueError: Unknown loss function: bes_loss 問題場景 訓練 margin = 0.6 theta = lambda t : (K.sign(t) + 1.) / 2 def bes_loss(y_true, y_pred): return - (1 - theta(y_true - margin) * theta(y_pred - margin) - theta(1 - margin - y_true)

  • Pytorch深入学习阶段二2022-04-06 15:01:39

    Pytorch学习二阶段 一、自动求导 训练神经网络包含两步: 前向传播 后向传播:后向传播中,NN将调整他的参数,并通过loss_function来自计算误差,并通过优化器来优化参数。 import torch, torchvision model = torchvision.models.resnet18(pretrained=True) data = torch.rand(1, 3, 64,

  • 计算机视觉的迁移学习演示2022-04-04 14:02:54

    本文讲述了如何使用迁移学习来对图片分类任务训练一个卷积神经网络。关于更多的迁移学习可以查看cs231n notes。 关于这些笔记: 实际上,人们通常不会从头训练一整个卷积神经网络(从随机初始化权重开始),因为通常并没有足够大的数据集。相反,更常见的做法是在一个非常大的数据集上(例如Im

  • SimCSE的loss实现-tensorflow22022-03-28 20:33:34

    对比学习的核心就是loss的编写,记录下loss的tensorflow实现 def unsupervise_loss(y_pred, alpha=0.05): idxs = tf.range(y_pred.shape[0]) y_true = idxs + 1 - idxs % 2 * 2 y_pred = tf.math.l2_normalize(y_pred, dim = 1) similarities = tf.matmul(y_pred,

  • mmdetection训练出现nan2022-03-27 14:33:07

    训练出现nan 在使用MMDetection训练模型时,发现打印信息中出现了很多nan。现象是,loss在正常训练下降的过程中,突然变为nan。 梯度裁减 在模型配置中加上grad_clip: optimizer_config = dict(grad_clip=dict(max_norm=35, norm_type=2)) 降低学习率 如果添加了梯度裁剪依旧出现梯度

  • Pytorch深度学习——Tensorboard的使用2022-03-20 14:59:47

    本节笔记内容具体是学习tensorboard中的两个方法分别是scalar和histogram,一共分为3个部分:(1)首先学习SummaryWriter类;(2)其次,学习两个基本方法记录标量add_scalar和直方图可视化add_histogram;(3)最后,使用scalar和histogram来监控模型指标(分别有Loss曲线、Acuracy曲线以及参数分布、

  • GNN实验(一)2022-03-09 19:02:33

    GNN实验 实验一 论文:《Semi-Supervised Classification with Graph Convolutional Networks》 代码:https://github.com/tkipf/pygcn 数据集:Cora(主要利用论文之间的相互引用关系,预测论文的分类) 注意:之所以叫做半监督分类任务(Semi-Supervised Classification),这个半监督意思是,训练的

  • Pytorch 损失函数总结2022-03-09 09:32:58

    1 nn.L1Loss   torch.nn.L1Loss(reduction='mean')   就是 MAE(mean absolute error),计算公式为     $\ell(x, y)=L=\left\{l_{1}, \ldots, l_{N}\right\}^{\top}, \quad l_{n}=\left|x_{n}-y_{n}\right|$     $\ell(x, y)=\left\{\begin{array}{ll}\opera

  • Bert不完全手册1. 推理太慢?模型蒸馏2022-03-08 09:03:11

    模型蒸馏的目标主要用于模型的线上部署,解决Bert太大,推理太慢的问题。因此用一个小模型去逼近大模型的效果,实现的方式一般是Teacher-Stuent框架,先用大模型(Teacher)去对样本进行拟合,再用小模型(Student)去模仿Teacher。 为什么蒸馏本身会比直接用小模型去拟合样本取得更好的效果呢?这里

  • 2022-2023年英语周报九年级第10期答案汇总2022-03-06 16:01:21

    进入查看: 2022-2023年英语周报九年级第10期答案汇总   When it comes to weight loss. 80 percent of people try to do it on their own. Says John LaRosa, president of Marketdata. which tracks the $4 billion commercial U.S. weight loss industry. He says apps like M

  • 手动实现前馈神经网络解决 二分类 任务2022-03-06 12:04:09

    1 导入实验需要的包 import numpy as np import torch from torch import nn from sklearn.model_selection import train_test_split import matplotlib.pyplot as plt from torch.utils.data import TensorDataset,DataLoader 2 创建数据 num_example,num_input = 10000,200

  • Pytorch nn.BCEWithLogitsLoss() 的简单理解与用法2022-03-06 10:32:21

    这个东西,本质上和nn.BCELoss()没有区别,只是在BCELoss上加了个logits函数(也就是sigmoid函数),例子如下: import torch import torch.nn as nn label = torch.Tensor([1, 1, 0]) pred = torch.Tensor([3, 2, 1]) pred_sig = torch.sigmoid(pred) loss = nn.BCELoss() print(loss(pr

  • 手动实现前馈神经网络解决 多分类 任务2022-03-06 01:32:50

    1 导入实验需要的包 import torch import numpy as np import random from IPython import display import matplotlib.pyplot as plt from torch.utils.data import DataLoader,TensorDataset from torchvision import transforms,datasets from torch import nn 2 加载数据集

  • 【ECCV 2020】论文阅读:Motion Guided 3D Pose Estimation from Videos2022-03-05 22:00:21

    ECCV2020的一篇关于3D姿态视频评估的文章 论文地址:https://arxiv.org/abs/2004.13985 Github地址:好像没找到官方的,但已经有非官方的供参考:https://github.com/tamasino52/UGCN 单位:亚马逊、港中文 摘要 作者提出了一个新的损失函数,称之为motion loss,用于解决单目下从2D pose到3D H

  • 【Pytorch Lightning】基本特征2022-03-02 23:31:09

    手动优化和自动优化 自动优化。使用lightning,你不需要担心何时启用/禁用梯度的计算,做反向传播,或者更新优化器等。只要你在training_step中返回一个带有loss的图,Lightning就会自动进行优化。 def training_step(self, batch, batch_idx): loss = self.encoder(batch)

  • 深度学习项目中_5-训练模块的编写2022-03-02 18:59:00

    1.训练模块中的步骤 训练模块一般是保存在train.py 的文件中, 该模块中一般包含以下步骤: 导入各类模块, (标准库, 三方库, cv, torch, torchvision), 如果在model.py ( 自己定义网络模型文件), loss.py (自定义的损失函数), utils.py( 自定义的各种方法), config.py(整体项目的

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有