这里只是一个走全程的代码,重在体验,如果想学习深度学习建议看 官方文档 大体步骤是: 1.先处理数据,分训练集和测试集 2.构建模型 3.优化模型参数 4.保存模型 5.加载模型,测试 训练代码 # -*- coding: utf-8 -*- # day day study day day up # create by a Man import torch from tor
今天这一篇,我们正式接触深度学习的理论基础—机器学习 第二篇 一、机器学习分类二、机器学习的基本算法三、算法的理论基础1、机器学习的基础理论-----函数逼近2、回归算法3、其他算法----决策树 一、机器学习分类 1、基于学科分类 统计学、人工智能、信息论、控制理论
# 姓 名:熊灿 # 开发时间:2021/11/25 14:44 import torch import torchvision.datasets from matplotlib import pyplot as plt from torch.utils.data import DataLoader from torchvision.transforms import transforms import torch.nn as nn import os os.environ['KMP_D
本节介绍有关机器学习常见任务重的API。请参阅每一节的链接以深入了解。 Working with data PyTorch有两个有关数据工作的原型:torch.utils.data.DataLoader 和 torch.utils.data.Dataset。Dataset 存储了样本及其对应的标签,而 DataLoader为 Dataset 生成了一个迭代器。 import tor
数据集超链接 #加载飞桨、Numpy和相关类库 import paddle from paddle.nn import Linear import paddle.nn.functional as F import numpy as np import os import random 动态图模式(命令式编程范式,类比Python):解析式的执行方式。用户无需预先定义完整的网络结构,每写一行网
一、业务背景 本实验将使用时深度学习技术对图像进行超分辨率重建,设计到的技术包括了卷积神经网络,生成对抗网络,残差网络等。 二、开发环境 本实验使用到“Microsoft Visual Studio”、“VS Tools for AI”等开发组件,涉及到了“TensorFlow”、“NumPy”、“scipy. misc”、“P
你已经知道怎样定义神经网络,计算损失和更新网络权重。现在你可能会想, 那么,数据呢? 通常,当你需要解决有关图像、文本或音频数据的问题,你可以使用python标准库加载数据并转换为numpy array。然后将其转换为 torch.Tensor。 对于图像,例如Pillow,OpenCV 对于音频,例如scipy和librosa 对
论文简介:大幅减少训练迭代次数,提高泛化能力:Multi-Sample Dropout 论文标题:Multi-Sample Dropout for Accelerated Training and Better Generalization 论文链接:https://arxiv.org/pdf/1905.09788.pdf 论文作者:{Hiroshi Inoue} 论文简介 本文阐述的也是一种 dropout 技术的变
文章目录 1 简介1.1 创新 2 方法3 实验 1 简介 论文题目:Zero-Shot Transfer Learning for Event Extraction 论文来源:ACL 2018 论文链接:https://arxiv.org/pdf/1707.01066.pdf 代码链接:https://github.com/wilburOne/ZeroShotEvent 1.1 创新 将事件抽取定义为generic gr
施工中 先按照范例写了用Mini-batch的logistic regression,处理方式和范例有一些区别,因为不太会numpy,只会矩阵向量乘来乘去,不会用广播之类的操作((( 如果仿照范例不做优化的话,在train_set上跑出来的acc和loss和范例差不多 Preprocess import numpy as np with open("./X_train")
引言 本着“凡我不能创造的,我就不能理解”的思想,本系列文章会基于纯Python以及NumPy从零创建自己的深度学习框架,该框架类似PyTorch能实现自动求导。 要深入理解深度学习,从零开始创建的经验非常重要,从自己可以理解的角度出发,尽量不适用外部完备的框架前提下,实现我们想要的模
今天学的是感知机,代码放在下面,总结了几个问题。 1. MLP多层感知机与SVM支持向量机的区别: 1.MLP需要设置W和b,但是SVM对参数不敏感,所以相对方便一些;2.SVM在数学上解释性更强;3.SVM优化相对容易。 2.为什么是深度学习,而不是广度学习?——直觉解释,这玩意不会有理论依据 只有一个原因,广度
python3.7+pycharm+tensorflow2.0+CPU下载安装配置 博主查找了大量网上资源,发现大多数都是使用anaconda下载python和tensorflow配置的,由于博主之前安装了python3.7版本,想要不通过anaconda来进行tensorflow的安装,我觉得还挺简单的。方法大致如下,版本部分大家自行调整。 1、下
损失函数之Focal-EIoU Loss: 本文是复现的是CVPR2020的一篇关于边界框损失函数文章:Focal and Efficient IOU Loss for Accurate Bounding Box Regression。 在Focal-EIoU Loss这篇论文中,作者提出CIoU中的相对比例存在若干问题,因此提出了更为直接的使用边长作为惩罚项。 此
第11讲 卷积神经网络(高级篇) GPU版本源代码 原理是基于B站 刘二大人 :传送门PyTorch深度学习实践——卷积神经网络(高级篇) 这篇基于博主错错莫:传送门 深度学习实践 第11讲博文 仅在他的基础上加入了GPU模块,详细原理解释请看他的博文 1、Inception Moudel import torch impor
目的:手动清零可以让使用者自由选择梯度清零的时机,具有更高的灵活性。例如选择训练每N个batch后再进行梯度更新和清零,这相当于将原来的batch_size扩大为N×batch_size.因为原先是每个batch_size训练完后直接更新,而现在变为N个batch_size训练完才更新,相当于将N个batch_size合为
(注:原文链接是深入浅出Yolo系列之Yolov5核心基础知识完整讲解,我觉得这篇文章写的很好,所以自己手敲了一遍,并修改了很小一部分的细节,或者加了一些来自作者另一篇文章深入浅出Yolo系列之Yolov3&Yolov4&Yolov5核心基础知识完整讲解中的内容) (更:参考yolov5深度可视化解析,从los
本次代码学习参考深度学习框架PyTorch入门与实践(陈云) 模拟线性回归 代码部分理论部分关于本模型的前向计算和反向传播梯度下降法 代码部分 import torch as t %matplotlib inline from matplotlib import pyplot as plt from IPython import display #设置随机数种子,保
男女的身高和体重有着显著的差别,此次Python程序的任务是根据一个人的身高和体重,简单判断他(她)的性别。 采用最简单的单层神经网络,logistic regression模型,模型输入一个人身高和体重,判断性别男女。 训练样本是sex_train.txt的文本,部分训练样本数据如下,第一列数字为身高(m);第二列数
本文已加入
参考:参考1;参考2 总体来说,常见的带监督的机器学习问题主要分为两类:分类和回归,我们使用 Tensorflow 来解决这些问题的时候需要自己搭建网络,但是Tensorflow不同级别的API也就产生了不同的模型搭建方式。越底层的API灵活性越大,可以更加自由的添加自己想加入的内容,但是编码难度有所提
损失函数与风险函数 监督学习问题是在假设空间F中选取模型f作为决策函数,对于给定的输入X,由f(X)给出相应的输出Y,这个输出的预测值f(X)与真实值Y可能一致也可能不一致,用一个损失函数(loss function)或代价函数(cost function)来度量预测错误的程度.损失函数是f(X)和Y的非负实值函数,记作
循环自动编码器 如果要为序列构建自动编码器,例如时间序列和文本(例如,用于无监督学习或降维),那么递归神经元可能比密集网络更合适。构建循环自动编码器非常简单直接:编码器通常是序列到向量的RNN,它将输入序列压缩为单个向量。解码器是向量到序列RNN,做相反的处理: from tensorflow impor
堆叠式自动编码器 自动编码器可以具有多个隐藏层。在这种情况下,它们被称为堆叠式自动编码器(或深度自动编码器)。添加更多的层有助于自动编码器学习更多的复杂的编码。就是说,要注意不要使自动编码器过于强大。想象一个强大的编码器,它只是学会了把每个输入映射到单个任意数字(而解码器
文章内容:如何在YOLOX官网代码中修改–定位损失 环境:pytorch1.8 修改内容: (1)置信度预测损失更换:二元交叉熵损失替换为FocalLoss或者VariFocalLoss (2)定位损失更换:IOU损失替换为GIOU、CIOU、EIOU以及a-IOU系列 提示:使用之前可以先了解YOLOX及上述损失函数原理 参考链接: YOLOX官网