ICode9

精准搜索请尝试: 精确搜索
  • 最小二乘法——高斯-马尔可夫定理的证明,无偏估计、求系数的方差2022-03-18 23:30:49

    目录 前言相关证明无偏估计系数的标准差 高斯-马尔可夫定理的优点同局限性 前言 最小二乘法(least squares)是我们很早就就接触过的一类方法,是广义线性回归的特殊情形——即一元线性回归。本文将假设误差遵从高斯——马尔可夫假设,证明为什么在该假设下,最小二乘法求得的系

  • Pytorch——BatchNorm层和LayerNorm层的参数含义以及应用理解2022-03-02 19:00:11

       在我们平常面试和工程中会用到BN和LN,但或许没有去了解过BN和LN到底在那个维度上进行的正则化(减均值除以标准差)。下面将会采用各种例子来为大家介绍BN层和LN层各个参数以及差别。  一、BatchNorm(批标准化):   BatchNorm一共有三个函数分别是BatchNorm1d,BatchNorm2d,BatchNo

  • torch.var()、样本方差、母体方差2022-02-28 16:01:17

    文章目录 方差的分类torch.var 方差的分类 这两者有显然的区别,为什么会有这个区别呢? 区别有二,这两个区别互相联系,不可分割: 数据的多少。上面这个只有一部分样本,而下面这个是有完整数据,即总体,母体。目的。你是要算这部分数据的方差,还是要估计总体的方差。如果是前者,那

  • 统计常用知识随笔(1)2022-02-23 19:03:43

    注:以下均来自牛客网 小红书笔试题目~       1.调查全公司1000名员工平均交通费用支出情况,采取不重置抽样,从其中抽取100名进行调查。根据以往调查可知总体方差s²为100,则样本均值的方差为 (100/111)    2.X服从区间(1,5)上的均匀分布,求对X进行3次独立观测中,至少有2次的观测值大

  • Kalman Filter-2进阶2022-02-19 14:33:35

    1.状态空间表达式 \(x_k是当前状态的状态值,k是当前值,x_{k-1}上一个时刻该状态的值\) \(u_k,x_k的输入\) \(w_k 过程噪声\) \(A状态转移矩阵\) \(B控制矩阵\) \(y_k观测量\) \(v_k观测噪声,和观测器的误差有关\) \(C某种关系\) 案例 火炉对水加热 \(y_k 观测器(温度计)的观测值\)

  • 独立小样本两个总体均值差的估计2022-02-09 20:35:19

    独立小样本两个总体均值只差的估计         小样本:或  条件:总体服从正态分布,随机样本是从两个总体独立选取的。 如果:       自由度= :总体1 -方差,:总体2 -方差:样本1 -均值,:样本2 -均值:样本1 -样本数量,:样本2 -样本数量:样本1 -样本方差,:样本2 -样本方差:t分布值,若取95%置信

  • 方差一瞥2022-02-05 18:00:24

    \[\frac{1}{m}\sum\limits_{i=1}^m(a_i-\frac{sum}{m})^2\\=\frac{1}{m}\sum\limits_{i=1}^ma_i^2+\frac{sum^2}{m^2}-2\times a_i\times\frac{sum}{m}\\=\frac{1}{m}\times m\times\frac{sum^2}{m^2}-\frac{2}{m}\times sum\times\frac{sum}{m}+\fr

  • OTSU算法(大津法—最大类间方差法)原理及实现2022-02-03 21:30:38

    OTSU算法(大津法—最大类间方差法)原理及实现 背景 大津法(OTSU)是一种确定图像二值化分割阈值的算法,由日本学者大津于1979年提出。从大津法的原理上来讲,该方法又称作最大类间方差法,因为按照大津法求得的阈值进行图像二值化分割后,前景与背景图像的类间方差最大。 方差: 它是按图

  • 期望、方差、协方差、协方差矩阵2022-02-03 19:03:17

    1. 期望(数学期望、均值) 在概率论和统计学中,数学期望(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。 根据大数定律,随着重复次数接近无穷大,数值的算术平均值几乎肯定地收敛于期望值。 1.1. 期望的定义 对于

  • BM3D改进算法2022-02-01 16:33:33

    论文名称:Collaborative Filtering of Correlated Noise:Exact Transform-Domain Variance for Improved Shrinkage and Patch Matching Exact Transform-Domain Noise Variance for Collaborative Filtering of Stationary Correlated Noise 两篇论文类似。 论文链接: https://we

  • 回归分析-线性回归-检验-模型2022-01-29 17:04:12

    OLS:最小二乘法 通过预测变量的加权和来预测量化的因变量,其中权重是通过数据估计而得的参数 数据特征:  正态性 对于固定的自变量值,因变量值成正态分布。  独立性 Yi值之间相互独立。  线性 因变量与自变量之间为线性相关。  同方差性 因变量的方差不随自变量的水平不同而变化

  • 机器学习(十)偏差和方差问题2022-01-28 22:06:11

    文章目录 Log 一、决定下一步做什么(Deciding what to try next)1. 关注的问题2. 改进算法性能的方法 二、评估假设(Evaluating a hypothesis)1. 过拟合问题2. 数据分割3. 训练和测试的步骤①线性回归②逻辑回归 三、模型选择和训练、验证、测试集(Model selection and trainin

  • 深度学习中的 BN (batchNormalization)理解2022-01-27 10:34:22

    CNN 三大算子: CONV + BN +RELU 1、为什么 BN 指导思想: 机器学习领域有个很重要的假设:IID独立同分布假设,就是假设训练数据和测试数据是满足相同分布的。 具有统一规格的数据, 能让机器学习更容易学习到数据之中的规律。 具体原因: 随着网络加深,数据经过激活层后趋向两侧,梯度趋

  • Luogu P1471 方差2022-01-21 23:01:03

    题目 Luogu P1471 维护一个包含 \(n\) 个实数的数列,并有 \(m\) 个操作 操作为以下三种之一: 1 x y k 表示将第 \(x\) 到第 \(y\) 项每项加上 \(k\) ,\(k\) 为一实数 2 x y 表示求出第 \(x\) 项到第 \(y\) 项这一子数列的平均数 3 x y 表示求出第 \(x\) 项到第 \(y\) 项这一子数列

  • 集成学习算法,Bagging&Stacking&Boosting2022-01-17 14:06:28

    1、什么是集成学习算法? 2、集成学习主要有哪几种框架,并简述它们的工作过程? 3、Boosting算法有哪两类,它们之间的区别是什么? 4、什么是偏差和方差? 5、为什么说Bagging可以减少弱分类器的方差,而Boosting可以减少弱分类器的偏差? 1、什么是集成学习算法? 通过训练多个弱分类器,并通过

  • Datawhale学习打卡LeeML-Task032022-01-14 19:59:40

    Datawhale学习打卡LeeML-Task03 误差误差来源解释:类比解释数学证明 估计变量x的偏差和方差估计变量x的偏差估计变量x的方差 不同模型的偏差和方差考虑不同模型的偏差考虑不同模型的方差 过拟合和欠拟合怎么判断 偏差和方差的trade-off (平衡)——模型选择交叉验证N-折交叉验

  • 概率论与数理统计2022-01-13 23:02:39

    概率论:研究如何定量描述随机现象的发生可能性及其规律 数理统计:通过样本来对总体进行估计或者检验某个假设是否成立 对于随机现象的规律总结 概率:随机事件发生的可能性 概率模型 离散型:二项分布(多次放回重复试验,成功次数的分布概率)、泊松分布、几何分布(独立重复试验,首次成功

  • 深度学习相关面试知识点2022-01-12 10:01:35

    深度学习 该内容由个人整理和归纳,如有不同见解,还望指教~ 为什么要通过梯度下降求解参数? 梯度的方向是函数增长速度最快的方向,那么梯度的反方向就是函数下降最快的方向,通过往函数下降最快的方向走,可以走到函数的极小/最小值点。 Embedding 为什么需要 Embedding? 因为有些类别特

  • Batch Normalization2022-01-03 16:31:28

    BN回顾 首先Batch Normalization 中的Normalization被称为标准化,通过将数据进行平和缩放拉到一个特定的分布。BN就是在batch维度上进行数据的标准化。BN的引入是用来解决 internal covariate shift 问题,即训练迭代中网络激活的分布的变化对网络训练带来的破坏。BN通过在每次训练

  • ML - 数据归一化2022-01-02 12:05:11

    文章目录 一、关于归一化二、归一化方法1、最值归一化 normalization2、均值方差归一化 standardization 三、Python 代码实现归一化处理矩阵均值方差归一化 四、Sklearn 中的实现使用归一化后的数据来对 iris 进行 knn 分类其他数据集常见使用 五、封装归一化类六、测试数

  • 随机变量乘积的期望和方差2022-01-01 21:02:40

    数学证明 随机变量乘积的期望: 已知两个随机变量 x 1 x_1 x1​和

  • python小练习--概率论相关,求分布、期望及方差2021-12-28 12:34:35

    #抛10次硬币,求恰好两次正面朝上的概率 import numpy as np from scipy import stats as sts n=10 p=0.5 k=np.arange(0,11) #总共有0-10次正面朝上的可能,arange其实是一个列表 binomial=sts.binom.pmf(k,n,p) print('概率为:',binomial) #输出的结果有11个,分别表示0-10次 prin

  • 数值稳定性 + 模型初始化和激活函数2021-12-25 19:30:32

    方差刻画了随机变量的取值对于其数学期望的离散程度。(标准差、方差越大,离散程度越大。否则,反之)举例说明:若X的取值比较集中,则方差D(X)较小,若X的取值比较分散,则方差D(X)较大。因此,D(X)是刻画X取值分散程度的一个量,它是衡量取值分散程度的一个尺度。 有一个概率模型,随机变量X

  • Halcon OSTU算法2021-12-17 16:34:25

    Halcon 中的全局阈值分割算子 binary_threshold 中,Method = 'max_separability' 指的就是Otsu法(最大类间方差法,有时也称之为大津算法)。Otsu 算法也叫全局最优阈值处理,使用聚类思想,把图像的灰度数按灰度级分成2个部分,使得两个部分之间的灰度值差异最大,每个部分之间的灰度差异最小,通

  • GWAS计算BLUE值4--联合方差分析演示2021-12-14 21:58:27

    本篇,用书籍中的数据和结论,用R语言的一般线性模型和混合线性模型,做一下一年多点的联合方差分析的演示。 1. 参考书籍《农业试验设计与统计分析》 这本书是压箱底的好书,里面是用最原始的方式(公式推导和分解)介绍农业试验设计与统计分析相关的知识点,这次使用第九章 多点试验结果

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有