ICode9

精准搜索请尝试: 精确搜索
  • 刘二大人《Pytorch深度学习实践》02.线性模型2022-02-09 17:02:17

    本人根据b站上刘老师的视频,简单做了一下,内容主要包括课上所讲内容的复现以及所留作业的实现。具体代码解释我都按照自己的理解放在代码后面了,如有不对的地方请多多包涵,毕竟俺也是第一次学,只是想找个地方把学到的东西找个地方存起来~ from collections import OrderedDict impor

  • 刘二大人《PyTorch深度学习实践》多分类问题2021-12-18 13:00:40

    课程请见 《PyTorch深度学习实践》 # PyTorch import torch from torch import nn from torch.utils import data from torchvision import datasets from torchvision import transforms from torch import optim # For plotting import matplotlib.pyplot as plt import o

  • 深度学习——反向传播算法及代码实例(B站刘二大人P4学习笔记)2021-10-08 13:03:22

    1 为什么要引入反向传播算法?        在之前的学习中,我们仅仅学习了只有一层的神经网络的计算,例如模型函数为,在使用梯度下降算法进行训练的时候,很轻松就可以利用求导公式计算出。        但是在神经网络中不可能仅仅只有一层,神经网络就行我们大脑的神经系统,由很多层攀枝

  • Pytorch深度学习实践(b站刘二大人)_04讲2021-10-02 13:02:43

    本节课讲的是反向传播。 课堂代码: #反向传播课上代码 import torch x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] w = torch.tensor([1.0]) # w的初值为1.0 w.requires_grad = True # 默认为False,True表示需要计算梯度 def forward(x): return x * w d

  • Pytorch深度学习实践(b站刘二大人)_03讲2021-10-02 12:34:58

    刘老师讲的十分细节,易于理解,大家可以去学习,课堂地址,废话不多说,直接上代码。 梯度下降算法课堂代码: # 梯度下降算法 import matplotlib.pyplot as plt x_data = [1.0,2.0,3.0] y_data = [2.0,4.0,6.0] w = 1.0 def forward(x): return x * w #计算损失函数MSE def co

  • 刘二Pytorch第二章2021-04-23 08:01:29

    线性模型: import numpy as np import matplotlib.pyplot as plt x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] def forward(x): return x * w def loss(x, y): y_pred = forward(x) return (y_pred - y) * (y_pred - y) w_list = [] mse_list = [] for w

  • 刘二大人pytorch入门-笔记2021-04-20 11:02:39

    视频教程刘二大人的pytorch testpytorch 1、测试pytorch版本2、线性模型3、梯度下降 1、测试pytorch版本 2、线性模型 import numpy as np import matplotlib.pyplot as plt x_data = [1.0,2.0,3.0] y_data = [2.0,4.0,6.0] def forward(x): return x*w def loss

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有