ICode9

精准搜索请尝试: 精确搜索
  • 深度学习中的线性代数知识详解2019-10-06 22:01:42

      原创 深度学习中的概率知识详解   1. 基础概念 随机变量(连续,离散): 对可能状态的描述, 在机器学习算法中,每个样本的特征取值,标签值都可以看作是一个随机变量,包括离散型随机变量和连续型随机变量 概率分布: 用来指定每个状态的可能性, 对于离散型的概率分布,称

  • 信息论_熵2019-09-16 20:52:00

          信息论主要是对信号所含信息的多少进行量化,其基本思想是一个不太可能发生的事情要比一个可能发生的事情提供更多的信息。       度量信息的集中常用指标有信息熵、条件熵、互信息、交叉熵。   信息熵       信息熵(entropy)简称熵,是对随机变量不确定性的度

  • Frequentist PK Bayesian2019-09-08 10:50:45

    数学与统计学最大的区别在于数学研究的是变量,而统计学研究的是随机变量 频率学派把未知参数看作普通变量(固定值),把样本看作随机变量;而贝叶斯学派把一切变量看作随机变量 贝叶斯论善于利用过去的知识和抽样数据,而频率论仅仅利用抽样数据。因此贝叶斯推论中前一次得到的后验概率分布

  • 常用名词12019-09-05 10:44:35

    1.随机变量:随机试验各种结果的实值单值函数。  例如: 抛硬币正面H, 反面T  样本空间: S={HH,HT,.TH,TT}以Y记两次投掷硬币得到反面T的总数,则Y是随机变量。  随机变量的分布函数(离散、连续)、分布率(连续)、密度函数(离散)有什么联系和区别? 2.  特征分解:是将矩阵分解为由其特征值和

  • 特征相关性2019-08-29 12:01:18

    一、期望  1、离散型随机变量    二、方差    三、协方差  四、相关性 

  • Machine Learning 之 概率论、信息论基础2019-08-02 15:54:05

        一、概率论基础 ML中的概率论基础概念   概率: 概率再机器学习中是处理不确定性。              不确定性产生的三种来源:             (1)建模系统存在随机性             (2)不完全观测: 确定的系统,但是观测值不完全,因为有些值时不可能完全

  • 机器学习中的熵、条件熵、相对熵和交叉熵2019-07-01 16:53:23

    转载自 https://www.cnblogs.com/kyrieng/p/8694705.html 1、信息熵 (information entropy)   熵 (entropy) 这一词最初来源于热力学。1948年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以也被称为香农熵 (Shannon entropy),信息熵 (information entropy)。本文只讨论信息

  • 常见六种随机变量分布可视化2019-06-11 21:01:37

    1.1 离散型随机变量-(伯努利分布): from scipy.stats import binom import matplotlib.pyplot as plt import numpy as np n = 10 p = 0.3 k = np.arange(0, 10) binomial = binom.pmf(k, n, p) plt.plot(k, binomial) plt.title('Binomial: n = %i, p=%0.2f' % (n, p), fontsiz

  • Vamei博客学习笔记(5)2019-05-15 15:52:54

    本文取自: 概率论09 期望 概率论10 方差与标准差 概率论11 协方差与相关系数 概率论13 中心极限定律 数学与编程:“概率论”总结 描述量(descriptor) 描述随机变量最完备的方法是写出该随机变量的概率分布。 概率分步包含了该随机变量的所有信息,全而大,我们填写报名表上面

  • jmeter组件七:Random_Variable&Random&RandomSting2019-04-28 17:53:18

    一:组件Random Variable(随机变量) 字段 解释 variable Name 变量名 Output Format 输出格式 Minimum Value 最小值 Maximum Value 最大值 Per Thread(User)? 是否每次重新获取随机变量 二:函数Random(随机获取int类型数值) 三:函数RandomSting(随机获

  • 熵、相对熵、互信息2019-04-20 21:51:09

    在学习AdaBoost之前,建议了解的预备知识,包括概率论(用于公式推导)、信息的基础知识,有利于理解算法思路的来龙去脉。此处附上原博客地址:https://blog.csdn.net/xierhacker/article/details/53463567 一.什么是熵Ⅰ.信息量首先考虑一个离散的随机变量x,当我们观察到这个变量的一个

  • Lecture4_1&4_2.多维随机变量及其概率分布2019-04-17 09:39:00

    1.二维随机变量(X,Y)的联合分布函数: F(x,y)=P(X≤x,Y≤y) 2.二维随机变量(X,Y)关于X的边缘分布函数: FX(x)=P(X≤x)    =P(X≤x,Y<+∞)    =F(x,+∞) 3.二维离散型随机变量联合概率分布 称P(X=xi,Y=yi)=pij为(X,Y)的联合概率分布,也称概率分布或分布律 直观表示:概率分布表或分布

  • 统计相关系数——Kendall Rank(肯德尔等级)相关系数2019-03-15 20:48:52

    参考内容: 统计相关系数(3)——Kendall Rank(肯德尔等级)相关系数及MATLAB实现 作用: Kendall相关系数是一个用来测量两个随机变量相关性的统计值。肯德尔相关系数的取值范围在-1到1之间,当τ为1时,表示两个随机变量拥有一致的等级相关性;当τ为-1时,表示两个随机变量拥有完全相反的

  • 统计学——步步为营2019-03-03 12:04:13

    统计学: 以数据为中心。统计学可以分为两大类: 1.描述统计学。用一些代表性representative number 数据来向你描述整体数据特点。 2.推论统计学(inferential statistics)。用一部分数据进行分析,通过数学方法尽可能准确地预测整体情况。 均值、中位数、众数: 这三种都是用来衡量一

  • 统计2019-02-28 18:48:37

    12.样本和总体 求大量数据均值可以选取样本均值。 Miu代表总体均值 X一横,代表样本均值。 13.总体方差 均值能衡量集中趋势,但是不能代表每个数。 方差:集合中每个数到均值距离绝对值的平方,再求和取平均。 这些点离中间有多远 14.样本方差 若选取的样本分布不合理,样本方差通常会小

  • 统计学基础知识梳理--NO.12019-02-28 18:04:57

    本次学习涵盖的知识点:统计学的基本概念,二项分布,泊松分布,大数定律,正态分布 本次学习参考内容: 1.可汗学院统计学公开课 2.《深入浅出统计学》 知识点清单 1.均值 中位数 众数 均值u的计算方式: ,表示样本的值,表示对所有的样本点求和,是样本的个数,用一句话来概括就是将一批数据进行

  • Random variables and Random Process/随机变量和随机过程2019-02-27 13:50:38

    Random Variables: (随机变量) 1.Bernoulli Random Variable: (伯努利随机变量) It is a discrete binary-valued that takes 0 and 1 with probability 1-p and p respectively. (它是一个离散的二进制值,取0和1的概率分别为1-p和p) , 2.Binomial Random Variable: (二项随机变量) Thi

  • 百面机器学习读书笔记2019-02-17 15:38:23

    P002----零均值归一化,思考,为什么归一化公式要除以标准差σ?   首先,了解标准差的定义:方差的平方根,那方差又是什么? 方差描述了随机变量X与期望值的偏离程度,目的是为了展示随机变量X取值的离散程度。那什么是随机变量?它与变量的区别在哪里? 个人理解如下: 简单地说,随机变量是指随机事件

  • 统计学:基本知识及随机变量分布规律2019-01-27 20:00:12

    统计学:基本知识及随机变量分布规律 1、统计学基本知识:均值、方差、标准差 - 总体(Population) 抽样(Sample) 均值(mean) μ=∑i=1NxiN\mu = \frac{\sum_{i=1}^{N}{x_i}}{N}μ=N∑i=1N​xi​​ x‾=∑i=1nxin\overline{x}=\frac{\sum_{i=1}^{n}{x_i}}{n}x=n∑i=1n​xi​

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有