ICode9

精准搜索请尝试: 精确搜索
  • 机器学习 - 算法示例 - Xgboost2019-11-29 16:56:56

    安装  能直接安装就再好不过 pip install xgboost  如果不能就下载之后本地安装 安装包下载地址 这里 想要啥包都有 数据集 pima-indians-diabetes.csv 文件 调查印度糖尿病人的一些数据,  最终的预测结果是是否患病 # 1. Number of times pregnant # 2. Plasma glucose

  • 树模型常见面试题(以XGBoost为主)2019-11-22 22:01:06

    参考资料: 珍藏版 | 20道XGBoost面试题 推荐系统面试题之机器学习(一) -----树模型 1. 简单介绍一下XGBoost2. XGBoost与GBDT有什么不同3. XGBoost为什么使用泰勒二阶展开4. XGBoost为什么可以并行训练5. XGBoost为什么快6. XGBoost防止过拟合的方法7. XGBoost如何处理缺失值8. XGBoo

  • python-使用大型(15 gb)CSV数据集和Pandas / XGBoost2019-11-11 05:09:18

    我试图找到一种方法来开始在Pandas中处理非常大的CSV文件,最终能够使用XGBoost进行一些机器学习. 在使用mySQL或某些sqllite框架管理数据块之间,我陷入了困境.我的问题在于稍后的机器学习方面,以及一次加载大块数据以训练模型. 我的另一个想法是使用Dask,它是由Pandas构建的,但也具

  • python-xgboost预报_proba:如何做概率和标签之间的映射2019-11-08 05:58:40

    我正在尝试使用xgboost算法预测解决多类分类,但是我不知道Forecast_proba是如何工作的.实际上,predict_proba会生成一个概率列表,但我不知道每种概率与哪个类别相关. 这是一个简单的示例: 这是我的火车数据: +------------+----------+-------+ | feature1 | feature2 | label | +

  • python-xgboost.train与XGBClassifier2019-10-25 06:59:35

    我正在使用python逐步拟合xgboost模型(逐块).我遇到了一个使用xgboost.train的解决方案,但我不知道该如何处理它返回的Booster对象.例如,XGBClassifier具有fit,predict,predict_proba等选项. 这是我正在一点一点读取数据的for循环内发生的事情: dtrain=xgb.DMatrix(X_train, label=

  • 预测时Xgboost(GPU)崩溃2019-10-13 18:58:26

    我在Python中使用XGBoost GPU版本,每当我尝试运行.predict时,它就会崩溃.它适用于较小的数据集,但对于我当前的问题却不起作用. train_final.shape, test_final.shape ((631761, 174), (421175, 174)) params = { 'objective': 'multi:softmax', 'eval_met

  • xgboost 学习总结2019-10-09 23:53:03

        最近重温了一下XGBoost,现在总结一下XGBoost的基本常识,公式是自己在草稿纸上推导然后码出来的,和原始论文不太相同。在推导过程中也不断多问自己几个为什么。   1. XGBoost 的数学推导:      1.1  目标与惩罚函数        设$\lbrace(x_{i},y_{i})\mid x_{i}\in\mathbb

  • python – 如何计算XGBoost包中的功能得分(/ important)?2019-10-04 13:55:17

    命令xgb.importance返回由f分数测量的特征重要性图. 这个f分数代表什么,如何计算? 输出: Graph of feature importance解决方法:这是一个度量标准,简单地总结了每个要素被拆分的次数.它类似于R版本https://cran.r-project.org/web/packages/xgboost/xgboost.pdf中的频率度量 它是您可

  • python – 如何实现xgboost的增量培训?2019-10-03 22:06:35

    问题是由于列车数据大小,我的列车数据无法放入RAM.所以我需要一种方法,首先在整列火车数据集上构建一棵树,计算残差构建另一棵树等等(如渐变提升树那样).显然,如果我在某个循环中调用model = xgb.train(param,batch_dtrain,2) – 它将无济于事,因为在这种情况下它只是为每个批次重

  • python – anaconda的xgboost安装问题2019-09-30 17:55:15

    我正在使用Anaconda.我首先切换到Python2(版本2.7.11). python -V Python 2.7.11 :: Continuum Analytics, Inc. 我使用以下命令在anaconda中安装xgboost. conda install -c https://conda.anaconda.org/akode xgboost 然后我检查了xgboost是否已安装. conda list xgboost

  • GBDT与XGBoost学习体会2019-09-23 21:00:54

    GBDT GBDT = 梯度下降 + Boosting + 决策树 提升树与梯度提升树区别:提升树采用残差,而GBDT去拟合负当前模型损失函数的负梯度(当损失函数为均方误差的时候,就相当于残差,一般的损失函数优化复杂使用负梯度来近似残差)   经典的AdaBoost算法只能处理采用指数损失函数的二分类学习任

  • 自动部署开源AI模型到生产环境:Sklearn、XGBoost、LightGBM、和PySpark2019-09-16 19:36:17

    目录 背景介绍 部署准备 部署Scikit-learn模型 部署XGBoost模型 部署LightGBM模型 部署PySpark模型 模型部署管理 总结 参考 背景介绍 AI的广泛应用是由AI在开源技术的进步推动的,利用功能强大的开源模型库,数据科学家们可以很容易的训练一个性能不错的模型。但是因为模型

  • xgboost:2019-09-08 21:02:42

        https://www.zybuluo.com/Dounm/note/1031900 GBDT算法详解     http://mlnote.com/2016/10/05/a-guide-to-xgboost-A-Scalable-Tree-Boosting-System/ XGboost: A Scalable Tree Boosting System论文及源码导读   2016/10/29XGboost核心源码阅读 2016/10/05XGboost:

  • xgboost与gdbt的不同和优化2019-08-30 17:01:59

    XGBoost是GBDT算法的一种变种,是一种常用的有监督集成学习算法;是一种 伸缩性强、便捷的可并行构建模型的Gradient Boosting算法 Xgboost和GBDT不同之处 xgboost在目标函数中显示的加上了正则化项,基学习器为CART时,正则化项与树的叶子节点的数量T和叶子节点的值有关。 上面提到CART回

  • python – 在anaconda上安装xgboost2019-08-28 14:05:22

    我在这个link之后安装了xgboost.它与我的python3一起工作正常.我的问题是我需要做些什么来让它在我的Python上工作?我试图在我的anaconda上导入xgboost但是失败了.有人可以帮我吗?非常感谢!解决方法:您可以通过运行此命令通过conda-forge通道安装它: conda install -c conda-forge xgb

  • XGBoost算法原理以及实现2019-08-24 15:41:39

    XGBoost算法是由GBDT算法演变出来的,GBDT算法在求解最优化问题的时候应用了一阶导技术,而XGBoost则使用损失函数的一阶导和二阶导,不但如此, 还可以自己定义损失函数,自己定义损失函数前提是损失函数可一阶导和二阶导。 XGBoost算法原理:(务必保证先学习决策树算法) 其实算法的

  • xgboost 源码学习2019-08-19 15:58:00

    官方代码结构解析,README.MD  Coding Guide======This file is intended to be notes about code structure in xgboostProject Logical Layout // 依赖关系,IO -> LEANER(计算梯度并且传导给GBM)-> GBM(梯度提升) -> TREE(构建树的算法) =======* Dependency order: io->learner->gb

  • 集成学习之sklearn中的xgboost基本用法 (转载)2019-08-08 19:01:45

    转载自:https://blog.csdn.net/qq_30868235/article/details/80370060 1.数据集       数据集使用sklearn自带的手写数字识别数据集mnist,通过函数datasets导入。mnist共1797个样本,8*8个特征,标签为0~9十个数字。 ### 载入数据from sklearn import datasets # 载入数据集dig

  • 从boosting谈起2019-08-08 14:55:57

    Boosting 将一些表现效果一般(可能仅仅优于随机猜测)的模型通过特定方法进行组合来获得一个表现效果较好的模型。抽象地说,模型的训练过程是对一任意可导目标函数的优化过程。 Adaptive boost 通过组合一系列表现一般的模型获得了一个表现优秀的模型,其中,每个新的模型都会基于前一个模

  • HHR计划---电商推荐算法2019-08-08 09:04:07

    一,只用LR的AUC对比:       1,LR demo:       2,LR one-hot之后:       3,LR + 网格搜索: 二,只用XGBoost的AUC对比(seed都指定为66): 1,XGBoost demo:   2,XGBoost + 网格搜索(只搜迭代速率):   3,XGBoost+网格搜索:   4,XGBoost+网格搜索,用模型和用grid进行fit的区别:   5,XGBoost+regress

  • 随机森林,GBDT,XGBoost的对比2019-08-05 19:01:21

    原文链接:https://blog.csdn.net/yingfengfeixiang/article/details/80210145 随机森林 RF RandomForest   随机森林的集成学习方法是bagging ,但是和bagging 不同的是bagging只使用bootstrap有放回的采样样本,但随机森林即随机采样样本,也随机选择特征,因

  • 决策树、Bagging、随机森林、Boosting、Adaboost、GBDT、XGBoost2019-08-05 19:00:30

    原文链接:https://blog.csdn.net/moledyzhang/article/details/79498520 决策树(Descision Tree) 决策树介绍 决策树基于“树”结构进行决策:  - 每个“内部节点”对应于某个属性上的测试  - 每个分枝对应于该测试的一种可能结果(即属性的某个取值)  - 每个

  • GBT/Xgboost/Lightgbm2019-08-03 20:35:52

    三大集成学习优秀博客汇总 GBT XGboost Lgbm

  • xgboost: Higgs Boson Machine Learning Challenge2019-07-28 13:36:19

    代码原始出处: https://github.com/dmlc/xgboost/tree/master/demo/kaggle-higgs   一、问题介绍 竞赛官网:https://www.kaggle.com/c/higgs-boson/ 希格斯玻色子(英语:Higgs boson)是标准模型里的一种基本粒子,是因物理学者彼得·希格斯而命名。 2012年7月4日,欧洲核子研究组织(CERN

  • Xgboost参数调节2019-07-26 17:07:17

    转自:https://segmentfault.com/a/1190000014040317 1.调节最大迭代次数n_estimators # 最佳迭代次数:n_estimatorsfrom xgboost import XGBRegressorfrom sklearn.model_selection import GridSearchCVcv_params = {'n_estimators': [20,30,40]}other_params = {'learning_ra

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有