ICode9

精准搜索请尝试: 精确搜索
  • 深度学习MNIST代码(2022)2022-01-26 09:05:57

    这里只是一个走全程的代码,重在体验,如果想学习深度学习建议看 官方文档 大体步骤是: 1.先处理数据,分训练集和测试集 2.构建模型 3.优化模型参数 4.保存模型 5.加载模型,测试 训练代码 # -*- coding: utf-8 -*- # day day study day day up # create by a Man import torch from tor

  • Python深度学习:机器学习理论知识,包含信息熵的计算(读书笔记)2022-01-25 12:58:00

    今天这一篇,我们正式接触深度学习的理论基础—机器学习 第二篇 一、机器学习分类二、机器学习的基本算法三、算法的理论基础1、机器学习的基础理论-----函数逼近2、回归算法3、其他算法----决策树 一、机器学习分类 1、基于学科分类 统计学、人工智能、信息论、控制理论

  • GPU实现2022-01-24 19:59:15

    # 姓 名:熊灿 # 开发时间:2021/11/25 14:44 import torch import torchvision.datasets from matplotlib import pyplot as plt from torch.utils.data import DataLoader from torchvision.transforms import transforms import torch.nn as nn import os os.environ['KMP_D

  • PyTorch 介绍 | Quickstart2022-01-24 14:01:56

    本节介绍有关机器学习常见任务重的API。请参阅每一节的链接以深入了解。 Working with data PyTorch有两个有关数据工作的原型:torch.utils.data.DataLoader 和 torch.utils.data.Dataset。Dataset 存储了样本及其对应的标签,而 DataLoader为 Dataset 生成了一个迭代器。 import tor

  • 飞桨重写波士顿房价2022-01-22 22:30:38

    数据集超链接 #加载飞桨、Numpy和相关类库 import paddle from paddle.nn import Linear import paddle.nn.functional as F import numpy as np import os import random 动态图模式(命令式编程范式,类比Python):解析式的执行方式。用户无需预先定义完整的网络结构,每写一行网

  • 基于Python的图像超分辨率(Image Super Resolution)2022-01-22 22:02:36

    一、业务背景 本实验将使用时深度学习技术对图像进行超分辨率重建,设计到的技术包括了卷积神经网络,生成对抗网络,残差网络等。 二、开发环境 本实验使用到“Microsoft Visual Studio”、“VS Tools for AI”等开发组件,涉及到了“TensorFlow”、“NumPy”、“scipy. misc”、“P

  • DEEP LEARNING WITH PYTORCH: A 60 MINUTE BLITZ | TRAINING A CLASSIFIER2022-01-22 12:02:02

    你已经知道怎样定义神经网络,计算损失和更新网络权重。现在你可能会想, 那么,数据呢? 通常,当你需要解决有关图像、文本或音频数据的问题,你可以使用python标准库加载数据并转换为numpy array。然后将其转换为 torch.Tensor。 对于图像,例如Pillow,OpenCV 对于音频,例如scipy和librosa 对

  • 训练更快,泛化更强的Dropout:Multi-Sample Dropout2022-01-21 16:34:14

    论文简介:大幅减少训练迭代次数,提高泛化能力:Multi-Sample Dropout 论文标题:Multi-Sample Dropout for Accelerated Training and Better Generalization 论文链接:https://arxiv.org/pdf/1905.09788.pdf 论文作者:{Hiroshi Inoue} 论文简介 本文阐述的也是一种 dropout 技术的变

  • 论文笔记 ACL 2018|Zero-Shot Transfer Learning for Event Extraction2022-01-19 21:03:09

    文章目录 1 简介1.1 创新 2 方法3 实验 1 简介 论文题目:Zero-Shot Transfer Learning for Event Extraction 论文来源:ACL 2018 论文链接:https://arxiv.org/pdf/1707.01066.pdf 代码链接:https://github.com/wilburOne/ZeroShotEvent 1.1 创新 将事件抽取定义为generic gr

  • HW2-Logistic regression&Mini-batch gradient descent classfication2022-01-18 22:33:50

    施工中 先按照范例写了用Mini-batch的logistic regression,处理方式和范例有一些区别,因为不太会numpy,只会矩阵向量乘来乘去,不会用广播之类的操作((( 如果仿照范例不做优化的话,在train_set上跑出来的acc和loss和范例差不多 Preprocess import numpy as np with open("./X_train")

  • 从零实现深度学习框架——动手实现Softmax回归2022-01-18 19:31:47

    引言 本着“凡我不能创造的,我就不能理解”的思想,本系列文章会基于纯Python以及NumPy从零创建自己的深度学习框架,该框架类似PyTorch能实现自动求导。 要深入理解深度学习,从零开始创建的经验非常重要,从自己可以理解的角度出发,尽量不适用外部完备的框架前提下,实现我们想要的模

  • 深度学习笔记008MultilayerPerceptron多层感知机AssertionError2022-01-16 19:00:41

    今天学的是感知机,代码放在下面,总结了几个问题。 1. MLP多层感知机与SVM支持向量机的区别: 1.MLP需要设置W和b,但是SVM对参数不敏感,所以相对方便一些;2.SVM在数学上解释性更强;3.SVM优化相对容易。 2.为什么是深度学习,而不是广度学习?——直觉解释,这玩意不会有理论依据 只有一个原因,广度

  • 【 python3.7+pycharm+tensorflow2.0+CPU下载安装配置】2022-01-16 16:34:47

    python3.7+pycharm+tensorflow2.0+CPU下载安装配置 博主查找了大量网上资源,发现大多数都是使用anaconda下载python和tensorflow配置的,由于博主之前安装了python3.7版本,想要不通过anaconda来进行tensorflow的安装,我觉得还挺简单的。方法大致如下,版本部分大家自行调整。 1、下

  • Focal-EIOU Loss:用于精确边界框回归的高效IOU损失2022-01-14 13:04:52

    损失函数之Focal-EIoU Loss: 本文是复现的是CVPR2020的一篇关于边界框损失函数文章:Focal and Efficient IOU Loss for Accurate Bounding Box Regression。 在Focal-EIoU Loss这篇论文中,作者提出CIoU中的相对比例存在若干问题,因此提出了更为直接的使用边长作为惩罚项。 此

  • PyTorch 深度学习实践 GPU版本B站 刘二大人第11讲卷积神经网络(高级篇)GPU版本2022-01-14 09:34:45

    第11讲 卷积神经网络(高级篇) GPU版本源代码 原理是基于B站 刘二大人 :传送门PyTorch深度学习实践——卷积神经网络(高级篇) 这篇基于博主错错莫:传送门 深度学习实践 第11讲博文 仅在他的基础上加入了GPU模块,详细原理解释请看他的博文 1、Inception Moudel import torch impor

  • PyTorch中在反向传播前要手动将梯度清零2022-01-13 22:34:11

    目的:手动清零可以让使用者自由选择梯度清零的时机,具有更高的灵活性。例如选择训练每N个batch后再进行梯度更新和清零,这相当于将原来的batch_size扩大为N×batch_size.因为原先是每个batch_size训练完后直接更新,而现在变为N个batch_size训练完才更新,相当于将N个batch_size合为

  • yolov5网络结构学习2022-01-12 18:02:45

    (注:原文链接是深入浅出Yolo系列之Yolov5核心基础知识完整讲解,我觉得这篇文章写的很好,所以自己手敲了一遍,并修改了很小一部分的细节,或者加了一些来自作者另一篇文章深入浅出Yolo系列之Yolov3&Yolov4&Yolov5核心基础知识完整讲解中的内容) (更:参考yolov5深度可视化解析,从los

  • 简单易懂的线性回归模型训练2022-01-11 18:30:31

    本次代码学习参考深度学习框架PyTorch入门与实践(陈云) 模拟线性回归 代码部分理论部分关于本模型的前向计算和反向传播梯度下降法 代码部分 import torch as t %matplotlib inline from matplotlib import pyplot as plt from IPython import display #设置随机数种子,保

  • Python性别识别2022-01-09 12:05:12

    男女的身高和体重有着显著的差别,此次Python程序的任务是根据一个人的身高和体重,简单判断他(她)的性别。 采用最简单的单层神经网络,logistic regression模型,模型输入一个人身高和体重,判断性别男女。 训练样本是sex_train.txt的文本,部分训练样本数据如下,第一列数字为身高(m);第二列数

  • Pycharm2019+Tensorflow2.0 学习文档(九):3-1,低阶API示范12022-01-07 17:04:07

    参考:参考1;参考2 总体来说,常见的带监督的机器学习问题主要分为两类:分类和回归,我们使用 Tensorflow 来解决这些问题的时候需要自己搭建网络,但是Tensorflow不同级别的API也就产生了不同的模型搭建方式。越底层的API灵活性越大,可以更加自由的添加自己想加入的内容,但是编码难度有所提

  • 某些函数与知识点的复习2022-01-07 12:03:40

    损失函数与风险函数 监督学习问题是在假设空间F中选取模型f作为决策函数,对于给定的输入X,由f(X)给出相应的输出Y,这个输出的预测值f(X)与真实值Y可能一致也可能不一致,用一个损失函数(loss function)或代价函数(cost function)来度量预测错误的程度.损失函数是f(X)和Y的非负实值函数,记作

  • 循环自动编码器2022-01-06 19:02:20

    循环自动编码器 如果要为序列构建自动编码器,例如时间序列和文本(例如,用于无监督学习或降维),那么递归神经元可能比密集网络更合适。构建循环自动编码器非常简单直接:编码器通常是序列到向量的RNN,它将输入序列压缩为单个向量。解码器是向量到序列RNN,做相反的处理: from tensorflow impor

  • 堆叠式自动编码器2022-01-06 18:35:28

    堆叠式自动编码器 自动编码器可以具有多个隐藏层。在这种情况下,它们被称为堆叠式自动编码器(或深度自动编码器)。添加更多的层有助于自动编码器学习更多的复杂的编码。就是说,要注意不要使自动编码器过于强大。想象一个强大的编码器,它只是学会了把每个输入映射到单个任意数字(而解码器

  • YOLOX改进之损失函数(下)2022-01-06 16:59:48

    文章内容:如何在YOLOX官网代码中修改–定位损失 环境:pytorch1.8 修改内容: (1)置信度预测损失更换:二元交叉熵损失替换为FocalLoss或者VariFocalLoss (2)定位损失更换:IOU损失替换为GIOU、CIOU、EIOU以及a-IOU系列 提示:使用之前可以先了解YOLOX及上述损失函数原理 参考链接: YOLOX官网

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有