ICode9

精准搜索请尝试: 精确搜索
  • 机器学习基础知识2022-06-10 01:04:06

    目录一、 机器学习项目的一般步骤:二、线性回归三、降维(P188)四、聚类(P210) 一、 机器学习项目的一般步骤: 1.明确任务,收集数据 我们首先要明确可以获得什么样的数据,机器学习的目标是什么,该任务是否可以归为标准的机器学习任务,如是否为分类、回归。如果我们可以控制数据收集,则应确保获

  • 变量选择2022-04-24 00:01:11

    变量选择是在面对高维数据时需要处理的问题,有三类处理的方法,分别是最优子集的搜索、变量的稀疏和压缩、降维和特征重构。 最优子集的搜索L:一类处理方法是从备选的变量集合里面筛选出对于我们的分析目的有更大贡献的子集,常用的方法由最优子集法、BIC\AIC准则选择法、随机森林等。

  • 拓端tecdat|R语言群组变量选择、组惩罚group lasso套索模型预测分析新生儿出生体重风险因素数据和交叉验证、可视化2022-02-04 14:01:45

     原文链接:http://tecdat.cn/?p=25158 原文出处:拓端数据部落公众号  本文拟合具有分组惩罚的线性回归、GLM和Cox回归模型的正则化路径。这包括组选择方法,如组lasso套索、组MCP和组SCAD,以及双级选择方法,如组指数lasso、组MCP。还提供了进行交叉验证以及拟合后可视化、总结和预测的

  • 拓端tecdat|Python高维统计建模变量选择:SCAD平滑剪切绝对偏差惩罚、Lasso惩罚函数比较2022-02-02 13:03:00

    原文链接:http://tecdat.cn/?p=24940  原文出处:拓端数据部落公众号 变量选择是高维统计建模的重要组成部分。许多流行的变量选择方法,例如 LASSO,都存在偏差。带平滑削边绝对偏离(smoothly clipped absolute deviation,SCAD)正则项的回归问题或平滑剪切绝对偏差 (SCAD) 估计试图缓解

  • 01-30今日反思2022-01-30 23:02:01

    更新四岭回归和lasso回归     上午未完成:小黄书+更新四+英语单词 中午:一点半起床,到两点半英语时间 听第三部分+黄书+布置视频任务(自己写吧)+英语C+建模自学自学优化模型2+APP一定学会+大创看代码+听课+建模+美赛阅读 第三部分STATA Lasso的实例应用 导入Excel数据,注意变量,特

  • 并行多任务学习论文阅读(四):去偏lasso实现高效通信2021-11-10 21:04:05

    1.难点-如何实现高效的通信 我们考虑下列的多任务优化问题: \[ \underset{\textbf{W}}{\min} \sum_{t=1}^{T} [\frac{1}{m_t}\sum_{i=1}^{m_t}L(y_{ti}, \langle \bm{w}_t, \bm{x}_{ti} \rangle)]+\lambda \text{pen}(\textbf{W}) \tag{1} \]这里\(\text{pen}(\mathbf{W})\)是一个

  • sklearn代码23 6-线性回归岭回归 套索回归比较2021-11-08 10:33:36

    # LinearRegression,Ridge,Lasso import numpy as np from sklearn.linear_model import LinearRegression,Ridge,Lasso,RidgeCV,LassoCV import matplotlib.pyplot as plt %matplotlib inline # 50个样本 200个特征 # 无解,无数个解 X = np.random.randn(50,200) w = np

  • 近端策略优化算法(Proximal Policy Optimization Algorithms, PPO)2021-10-12 10:01:27

    近端策略优化算法(Proximal Policy Optimization Algorithms, PPO) 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/     这篇博文是Schulman, J., Wolski, F., Dhariwal, P., Radford, A., and Klimov, O. Proximal policy optimization algorithms. Advances in Ne

  • 简易Lasso回归 R语言 变量含有分类变量处理2021-08-07 18:34:34

    #这是个简易的lasso, 里面有几个参数,像family,应该自主 ??函数 去调一下 #加载包library(haven)#导入数据R <- read_dta("C:/Users/XXX/Desktop/R_cat.dta")data <- R#X变量都是连续变量x <- as.matrix(data[,1:29])y <- data[,30]   #第30列是Y变量x <- data.matrix(x)y <- data.

  • Lasso概念及scikit-learn实战2021-08-06 18:04:46

    基本概念 与岭回归相比,Lasso采用增加L1正则化的方式,其目标函数为 其中称为L1正则化项,称为正则化项的系数。与L2正则化相比,L1正则化会使得部分参数为零。这个特性可被用于特征选择或者降维。 代码实现 假设目标函数为 已知当,,时,,当,, 时,,设置正则化项的系数为0.5 则Lasso回归求参数

  • 机器学习笔记(九)——LASSO(sklearn)2021-07-26 16:36:16

    本博客仅用于个人学习,不用于传播教学,主要是记自己能够看得懂的笔记( 学习知识、资源和数据来自:机器学习算法基础-覃秉丰_哔哩哔哩_bilibili 数据参见博客:机器学习笔记(七)——岭回归(sklearn) - Lcy的瞎bb - 博客园 (cnblogs.com) LASSO与岭回归不同的是,LASSO的正则化所加的一项不是平

  • 机器学习sklearn(77):算法实例(三十四)回归(六)线性回归大家族(四)多重共线性:岭回归与Lasso(一)岭回归2021-07-02 23:03:24

    1 最熟悉的陌生人:多重共线性 逆矩阵存在的充分必要条件  行列式不为0的充分必要条件                             矩阵满秩的充分必要条件                         2 岭回归 2.1 岭回归解决多重共线性问题                 2.2 linear

  • 机器学习sklearn(78):算法实例(三十五)回归(七)线性回归大家族(五)多重共线性:岭回归与Lasso(二)Lasso2021-07-02 23:03:09

    3 Lasso 3.1 Lasso与多重共线性             3.2 Lasso的核心作用:特征选择     import numpy as np import pandas as pd from sklearn.linear_model import Ridge, LinearRegression, Lasso from sklearn.model_selection import train_test_split as TTS from sklear

  • R使用LASSO回归预测股票收益2021-07-01 18:08:01

      使用LASSO预测收益 1.示例 只要有金融经济学家,金融经济学家一直在寻找能够预测股票收益的变量。对于最近的一些例子,想想Jegadeesh和Titman(1993),它表明股票的当前收益是由前几个月的股票收益预测的,侯(2007),这表明一个行业中最小股票的当前回报是通过行业中最大股票的滞后回报预测,

  • R使用LASSO回归预测股票收益2021-07-01 18:07:11

      使用LASSO预测收益 1.示例 只要有金融经济学家,金融经济学家一直在寻找能够预测股票收益的变量。对于最近的一些例子,想想Jegadeesh和Titman(1993),它表明股票的当前收益是由前几个月的股票收益预测的,侯(2007),这表明一个行业中最小股票的当前回报是通过行业中最大股票的滞后回报预测,

  • R语言Bootstrap的岭回归和自适应LASSO回归可视化2021-07-01 18:03:07

    原文链接:http://tecdat.cn/?p=22921 原文出处:拓端数据部落公众号 拟合岭回归和LASSO回归,解释系数,并对其在λ范围内的变化做一个直观的可视化。 # 加载CBI数据 # 子集所需的变量(又称,列) CBI_sub <- CBI # 重命名变量列(节省大量的输入) names(CBI_sub)[1] <- "cbi" # 只要完

  • 岭回归和lasso回归及正则化2021-06-29 14:02:10

                       https://www.zhihu.com/question/20473040

  • Lasso 和 Ridge回归中的超参数调整技巧2021-05-17 09:33:41

    在这篇文章中,我们将首先看看Lasso和Ridge回归中一些常见的错误,然后我将描述我通常采取的步骤来优化超参数。代码是用Python编写的,我们主要依赖scikit-learn。本文章主要关注Lasso的例子,但其基本理论与Ridge非常相似。 起初,我并没有真正意识到需要另一个关于这个主题的指南—

  • 20210515 波士顿房价数据集的处理2021-05-15 15:01:19

    1-1 # 波士顿房价数据集的处理 import pandas as pd import numpy as np from sklearn.datasets import load_boston boston = load_boston() boston.data.shape boston.data 1-2-1 import pandas as pd import numpy as np from sklearn.datasets import load_boston boston = l

  • R语言实现LASSO回归——自己编写LASSO回归算法2021-05-12 14:07:57

    原文链接:http://tecdat.cn/?p=18840   这篇文章中我们可以编写自己的代码来计算套索(lasso)回归, 我们必须定义阈值函数 R函数是 thresh = function(x,a){ sign(x) * pmax(abs(x)-a,0) } 要解决我们的优化问题,设置 这样就可以等效地写出优化问题 因此 一个得到 同样,如果有权

  • 机器学习笔记:LS、Ridge、Lasso、最小一乘法的选择过程推导2021-04-30 19:30:06

    机器学习笔记:LS、Rddge、Lasso、最小一乘法推导 基础概念线性回归问题LS最小二乘法推导最小一乘法RidgeLasso 基础概念 假设 w \mathbf w w是一件事情的原因,而

  • 一文读懂线性回归、岭回归和Lasso回归2021-04-28 10:32:55

    一、线性回归 一、线性回归 ​ 假设有数据有  ,其中  ,  。其中m为训练集样本数,n为样本维度,y是样本的真实值。线性回归采用一个多维的线性函数来尽可能的拟合所有的数据点,最简单的想法就是最小化函数值与真实值误差的平方(概率解释-高斯分布加最大似然估计)。即有如下目标函数:

  • R语言自适应LASSO 多项式回归、二元逻辑回归和岭回归应用分析2021-03-25 14:59:54

    原文链接:http://tecdat.cn/?p=21602    正则化(regularization) 正则化路径是在正则化参数lambda的值网格上计算套索LASSO或弹性网路惩罚的正则化路径。该算法速度快,可以利用输入矩阵x中的稀疏性,拟合线性、logistic和多项式、poisson和Cox回归模型。可以通过拟合模型进行各种

  • Copula,最小二乘法及lasso回归, 岭回归2021-03-24 20:30:26

    Copula,最小二乘法及lasso回归, 岭回归 C o p u

  • 线性回归:正则化2021-02-28 18:01:53

      用线性回归模型进行预测常见问题:   1.实际数据可能不是线性的;如下图的模型:   安斯库姆四重奏里的四个不同的数据集,用线性回归模型拟合出来的直线相同,这些数据的均值方差都相同,为了看出拟合的效果,我们会利用R^2等指标进行模型诊断。        2.多重共线性(一些特征向

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有