ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

线性回归和逻辑回归

2022-05-23 04:31:07  阅读:167  来源: 互联网

标签:逻辑 frac min 回归 维度 cdots 线性 hat


Introduction

  • 分类算法(Classification)
  • 监督学习(Supervised Learning)

线性回归

线性回归是为了建立输入特征\(x = (x_1, \cdots, x_n)^T\) 和输出值y之间的线性关系,即:

\[y = w^T x \]

假设有一组训练数据,特征\(X = ({x^{(1)},\cdots,x^{(m)}})\),值\(\hat Y = ({\hat{y}^{(1)},\cdots,\hat{y}^{(m)}})\), 则上式扩展为矩阵形式

\[Y = w^T X \]

其中\(X\)的维度为n x m, \(Y\)的维度为1 x m, \(w\)的维度为n x 1. m为样本个数,n为样本特征维度.
接下去就是如何找到\(w\)这个向量中的n个值,有不同的方法。
找\(w\)最常见的方法就是最小平方法,即:找到某一组\(w = (w_1, \cdots, w_n)^T\) , 使得拟合函数曲线(即\(y = w^T x\))与观测值之差的平方和最小,那组\(w\)就是想要的参数,最小平方法表示成函数如下:

\[min \sum_{i=1}^m \frac{1}{2}(\hat{y}^{(i)} - y^{(i)})^2 = min \sum_{i=1}^m \frac{1}{2}(\hat{y}^{(i)} - w^T {x}^{(i)})^2= min (\frac{1}{2}(\hat{Y} - w^T X) (\hat{Y} - w^T X)^T) \]

最小化的对象称作损失函数,记为:

\[L(w) = \frac{1}{2}(\hat{Y} - w^T X) (\hat{Y} - w^T X)^T \]

标签:逻辑,frac,min,回归,维度,cdots,线性,hat
来源: https://www.cnblogs.com/alesvel/p/16299841.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有