ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

PyTorch深度学习实践 第七讲 处理多维特征的输入

2021-11-19 18:05:21  阅读:202  来源: 互联网

标签:loss 第七 nn pred self torch epoch PyTorch 多维


视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili

本次我们使用的数据集是糖尿病Diabetes dataset,是一个二分类问题。

矩阵是一个空间变换函数

Diabetes dataset的数据集的x的特征数为8,因此我们要做的是8D->1D的非线性转换

下图是我们模型设计思路:

所以我们这里其实是一个神经网络模型,如下图所示:

 数据集展示:(数据集链接在最下面)

代码展示:

import torch
import numpy as np
import matplotlib.pyplot as plt

# 准备数据集
x_y = np.loadtxt('../dataset/diabetes.csv.gz', delimiter=',', dtype=np.float32)  # 这时候的x和y是在一起的
# print(type(x_y))  # <class 'numpy.ndarray'>
# 将numpy数据类型转换为Tensor,并获取x,y
x_data = torch.from_numpy(x_y[:, :-1])  # 里面的操作是切片,取所有行的从第一列到倒数第二列的数据
y_data = torch.from_numpy(x_y[:, -1])  # 取所有行的最后一列的数据
# y_data = torch.from_numpy(x_y[:, [-1]]) 写成这样那就是二维的了,后面的预测结果就不用更改,两种方法都可
print(y_data.shape[0])  # torch.Size([759])  注意后面预测的结果y_pred的维数应与它一样
# print(type(x_data))  # <class 'torch.Tensor'>


# 实现模型类
class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        # 这里看我画的神经网络图
        self.linear1 = torch.nn.Linear(8, 6)
        self.linear2 = torch.nn.Linear(6, 4)
        self.linear3 = torch.nn.Linear(4, 1)
        self.sigmoid = torch.nn.Sigmoid()  # 和之前的torch.nn.functional没啥差别

    def forward(self, x):
        # 看我画的图
        x = self.sigmoid(self.linear1(x))
        x = self.sigmoid(self.linear2(x))
        x = self.sigmoid(self.linear3(x))
        return x


model = Model()

# 损失函数和优化器
criterion = torch.nn.BCELoss(size_average=True)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

# 训练周期
loss_list = []
iters = 1000
for epoch in range(iters):
    # 正向
    y_pred = model(x_data)
    # print(y_pred.shape)  # torch.Size([759, 1])
    # 修改y_pred的维数
    y_pred = y_pred.view(y_pred.shape[0])
    # print(y_pred.shape)
    loss = criterion(y_pred, y_data)
    loss_list.append(loss.item())
    # 反向
    optimizer.zero_grad()
    loss.backward()
    # 更新
    optimizer.step()
    print(f'epoch={epoch},loss={loss.item()}')  # 取loss里面的值,因为loss是一个张量

# 画图
plt.plot(np.arange(iters), loss_list)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()

结果如下:

epoch=0,loss=0.7861595749855042
epoch=1,loss=0.784835696220398
epoch=2,loss=0.7835241556167603
epoch=3,loss=0.7822247743606567
epoch=4,loss=0.7809374332427979
epoch=5,loss=0.779662013053894
epoch=6,loss=0.7783984541893005
epoch=7,loss=0.7771466374397278

.......

epoch=994,loss=0.644619882106781
epoch=995,loss=0.6446196436882019
epoch=996,loss=0.6446192860603333
epoch=997,loss=0.6446189284324646
epoch=998,loss=0.6446186900138855
epoch=999,loss=0.6446183323860168

 老师也提到看看激活函数改为Relu时的效果,那只要修改实现模型类那部分的代码即可,其他部分代码与上面相同,如下:

# 实现模型类
class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        # 这里看我画的神经网络图
        self.linear1 = torch.nn.Linear(8, 6)
        self.linear2 = torch.nn.Linear(6, 4)
        self.linear3 = torch.nn.Linear(4, 1)
        self.active = torch.nn.ReLU()  # 和之前的torch.nn.functional没啥差别

    def forward(self, x):
        # 看我画的图
        x = self.active(self.linear1(x))
        x = self.active(self.linear2(x))
        x = F.sigmoid(self.linear3(x))
        return x

结果如下:

  

数据集链接:https://pan.baidu.com/s/14Gotj40NxzC1dM1reAfMlw 
提取码:pig1

标签:loss,第七,nn,pred,self,torch,epoch,PyTorch,多维
来源: https://blog.csdn.net/weixin_62321421/article/details/121424511

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有