ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

机器学习—概念、三要素

2021-07-14 20:02:59  阅读:339  来源: 互联网

标签:机器 函数 1.2 Gradient 梯度 三要素 学习 概念 Descent


目录

1.1  基本概念

1.2  机器学习的三要素

1.2.1 模型

1.2.2 学习准则-损失函数

1.2.3 优化算法


1.1  基本概念

       机器学习(ML)≈ 构建一个映射函数

       概念:从数据中获得决策(预测)函数使得机器可以根据数据进行自动学习,通过算法使得机器能从大量历史数据中学习规律从而对新的样本做决策。

1.2  机器学习的三要素

1.2.1 模型

             线性方法:f(x,\theta )=W^{T}X+bX特征向量shape=n,1,W权重)

             广义线性方法:f(x,\theta )=W^{T}\Phi (x)+b

         如果Φ(x)为可学习的非线性基函数,f(x,\theta ) 就等价于神经网络

1.2.2 学习准则-损失函数

(1)0-1损失函数   

                       L(y,f(x,\theta ))=\left\{\begin{matrix} 0&if y=f(x,\theta ) \\ 1 &if y\neq f(x,\theta ) \end{matrix}\right.

(2)平方损失函数

L(y,\hat{y})m=(y-f(x,\theta ))^{2}

(3)交叉熵损失函数(常用)

L=-plogp

1.2.3 优化算法

1、学习准则-参数学习

(1)期望风险未知,通过经验风险近似

     训练数据:D=(x^{n},y^{(n)}),i∈[1,N]

R_{D}^{emp}=\frac{1}{N}\sum_{n=1}^{N}L(y^{n},f^{(y^{n})},\theta ) 

  1. 经验风险最小化

     在选择合适的风险函数后,我们寻找一个参数θ*,使得经验风险函数最小化。

\theta ^{^{*}}=arg^{_{\theta }}minR_{D}^{emp}(\theta)

        机器学习问题转化成为一个最优化问题。

1).拟合

       过拟合:经验风险最小化原则很容易导致模型在训练集上错误率很低,但是在位置数据上错误率很高。

过拟合问题往往是由于训练数据少和噪声等原因造成的。

泛化错误:在测试集上的表现不好,泛化能力不强。

如何减少泛化错误?

     (1)优化:经验风险最小

     (2)正则化:降低模型复杂度

        两种方法: ①增加优化约束

                           ②干扰优化过程

优化-梯度下降法(Gradient Descent)

搜索步长α中也叫作学习率(Learning Rate)(重要的超参数)

①批量梯度下降法(Batch Gradient Descent,BGD)中每个样本都进行更新;

②随机梯度下降法(Stochastic Gradient Descent,SGD)也叫增量梯度下降法;

③小批量(Mini-Batch)堆积梯度下降法(Mini-Batch Gradient Descent,MBGD)

梯度下降法实战见下节

标签:机器,函数,1.2,Gradient,梯度,三要素,学习,概念,Descent
来源: https://blog.csdn.net/qq_42040360/article/details/118735195

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有