ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

基于numpy用梯度上升法处理逻辑斯蒂回归

2021-08-18 22:32:50  阅读:202  来源: 互联网

标签:i1 梯度 sum i2 斯蒂 range train np numpy


import numpy as np  import matplotlib.pyplot as plt  w=700 w1=700 n=w1-50 train=np.random.randint(-300,300,(w,4)) train=train.astype(float) train_lable=np.zeros((w,1)) traint=train.astype(float) lam=100 for i in range(4):     train[:,i]=(train[:,i]-train[:,i].mean())/train[:,i].std() for i in range(w):     if 1*train[i,0]+2*train[i,1]+3*train[i,2]+4*train[i,3]-1>0:         train_lable[i]=1     else:         train_lable[i]=0 w=np.zeros(4) b=0 beta=1 for i in range(300):     sum=np.zeros(5)     for i1 in range(4):         for i2 in range(w1-50):             sum[i1]=sum[i1]+train_lable[i2]*train[i2,i1]-train[i2,i1]*np.exp(np.dot(w,train[i2])+b)/(1+np.exp(np.dot(w,train[i2])+b))-lam/n*w[i1]     for i2 in range(w1-50):         sum[4]=sum[4]+train_lable[i2]-np.exp(np.dot(w,train[i2])+b)/(1+np.exp(np.dot(w,train[i2])+b))     loss=0     for i2 in range(w1-50):         loss=loss+train_lable[i2]*(np.dot(w,train[i2])+b)-np.log(1+np.exp(np.dot(w,train[i2])+b))       sum=sum/(w1-50)     loss=loss/(w1-50)-lam/2/n*np.dot(w,w)     if loss>=-0.9 and beta>=1:         beta=beta/10     print(i,beta,loss,sum,w,b)     for i1 in range(5):         if i1==4:             b=beta*sum[4]+b         else:             w[i1]=w[i1]+beta*sum[i1] acc=0 k=w1-50 for i in range(50):     if(np.dot(w,train[i+k])+b>0):         if train_lable[i+k]==1:             acc+=1     else:         if train_lable[i+k]==0:             acc+=1 print(acc)

标签:i1,梯度,sum,i2,斯蒂,range,train,np,numpy
来源: https://www.cnblogs.com/hahaah/p/15159173.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有