目录
1 > 概率 :
( 1 )集合观下的概率
对于一个事件 其可以分解为若干子事件 而概率就是对这些事件间联系与制约的映射
因此我们对这若干事件进行数学建模 —— 集合
通过集合间的数学关系反映这些事件间的逻辑关系
( 2 )概率的相对性 :
概率准确的说是一个总体意义上确定的频率值
根据研究对象及定义域的不同 所得出的概率也不同
那么相应的 概率(此处仅指量上的概率)就可以被划分为两种 :
1.绝对概率 :
考虑定义集合U为客观世界的集合(无限不可数集)S为研究对象的极大集合
我们将绝对概率定义为:定义域在U上的概率
举个例子: 无论是在北美洲还是南美洲,饭前还是饭后 掷硬币的概率都相同
不随研究集合S的改变而改变这就是绝对概率
2.相对概率 :
与绝对概率相反我们将定义域在S上的概率称为相对概率
集合观下概率可视作事件相对所占比 那么对于同一事件定义域不同相对概率不同
再举个例子:大街上任意采访 一人是男生的概率约为50% 机房里任意采访 一人是
男生的概率为99.9999%
再再举个例子: 10个小球任意摸(假设已经摸了n个小球)对于U每个小球被摸到的概率仍为
1/10 ->((10 - n)/10 * 1/(10 - n))然而对于S每个小球被摸到的概率却是 1/(10 - n);
由此观之定义域(研究对象)的不同将直接导致概率的不同
因此在考虑概率问题时首先要清楚研究对象,研究主体及给定概率的相互关系;
( 3 ) 概率的几种类型
古典概率(绝对概率的拓展),试验概率,主观概率 不怎么重要 有兴趣可以自行查阅资料
( 4 ) 基本公式:
1.全概率公式:
∀Bi,Bj∈S,Bi∩Bj=∅,Bi⋃Bj=Ω
则 P(A) = ∑ P(A|Bi)∗P(Bi)
显然将所有集合A在集合B所占比×集合B在集合S中所占比求和就是A在集合S中所占比
也就是说全概率公式是应用相对概率计算绝对概率的公式
转化思想 将难以求得概率的A化为易求得概率的B
2.贝叶斯公式:
P(A|B)=P(B|A)×P(A) / P(B) 其中P(A|B)表示B事件发生时A事件发生的概率
显然 参照条件概率或相对概率理解 (如不能理解可画维恩图辅助)
应用于计算逆向概率 体现两个不同样本空间对同一样本空间的关系的关系
3.独立重复实验的伯努利大数定理:
若一次试验中某事件发生的概率为p,不发生的概率为q 则在n次试验中该事件至少发生m次的概率为:
(p + q)^n 展开式中从 p^n 到包括p^m × q^(n - m)为止各项的和
而该事件恰好发生k次的概率为C(n,k)×p^k × q^(n - k);
显然 我们知道概率的本质问题是组合 而该公式则是生成函数(母函数)的应用 这样就很好理解了
2 > 期望 :
( 1 ) 随机变量:
随机变量其实是一种特殊的函数 用于将集合(样本点)映射为实数
通过随机变量,我们可以通过考虑值来考虑事件
也就是说随机变量是事件数的展现
( 2 ) 数学期望:
定义随机变量X的期望为: E[X]=∑P(x)×X(x)=∑xP(X=x) 其中,P(X=x)表示∑ P(y)[X(y)=x]
如果说概率是对于未发生的事情会不会发生的可能性的一种预测 那么数学期望可以理解为某事情大量发生的平均结果
(如果上面式子看不懂)对于一个离散性随机变量 期望是试验中每次可能结果的概率乘以其结果(对总体的贡献)的和
也就是说期望可以理解为某一事件结果的加权平均
根据期望的公式,我们有两个计算方式:
1.考虑枚举每一个事物,计算其概率再求期望
2.考虑枚举权值x,计算权值的概率求期望
( 3 ) 期望的计算:
1.根据期望定义式
利用dfs枚举每种结果的概率乘以其贡献求和计算(通常情况下会超时一部分数据)
(参考 绿豆蛙的归宿(定义式dfs暴力)聪聪与可可(双向期望))
2.期望的线性性质 E[aX+bY]=aE[X]+bE[Y]
下面的推导将加深对与期望线性递推的理解:
利用数学归纳法
设已知P( X )(事件发生绝对概率)Q( X )(事件发生相对概率) , G( x )(贡献)并且 G( y ) = f(G( x ))
若f(x)为线性关系且x,y存在逻辑顺序
则 E( y ) = Q( y ) * G( y ) = Q( x ) * P( y ) * G( y ) = Q( x ) * P( y ) * f(G(x)) = f(E( x )) * P ( y );
由此观之期望的线性递推其实本质还是定义式 只不过在明确事件间概率与贡献的递推关系后可以转化为期望的递推关系 进而简化算法的时间复杂度
利用期望的线性性质递推 需要考虑不同事件间的转移
而线性递推的使用条件是事件概率为绝对概率因此部分试题需要维护这个绝对概率 即将相对概率转化为绝对概率(考虑S与U的关系)
(参考 OSU!:维护期望线性递推 Red is good:维护绝对概率)
3.期望的积:
两个随机变量X,Y 满足∀x1∈DX,y1∈DY,P(X=x1∩Y=y1)=P(X=x1)P(Y=y1) 则称它们为独立的随机变量
对于两个独立的随机变量 满足:E[XY]=E[X]E[Y]
证明:E[XY]=P[XY] * G[XY]=P[X]*P[Y]*G[x]*G[Y](当且仅当XY相互独立时推导成立)
应用:类比全概率公式或贝叶斯公式的应用 转化期望 常与线性递推结合使用
期望的积阐述了积事件的期望与构成积事件的独立事件的期望间的关系
4.全期望公式:E( X ) = ∑P( Y = yi )E( X | Y = yi ) = E( E(X | Y) )
与全概率公式相同 全期望公式也是利用相对期望计算绝对期望的公式
显然 事件X对集合S的期望 等于 事件X对集合Y的期望乘以事件Y发生概率之和 也就是相对期望X|Y的期望
( 3 ) 期望的相对性:
既然概率具有相对性 那么我们很容易联想到 由概率引申出的期望同样具有相对性
因此 类比概率的相对性 期望的相对性同样是基于研究对象的不同并且相对期望与相对概率一一对应
也就是说相对期望是随机变量X在其研究对象集合的结果的加权平均
3 > 概率与期望的可变性:
在某些情况下 大量试验中一些试验结果 受主观因素影响 并不会对客观结果造成影响 这也就直接导致了概率和期望的可变性
举个例子:桌面上有R张红牌和B张黑牌,随机打乱顺序后放在桌面上,开始一张一张地翻牌,翻到红牌得到1美元,黑牌则付出1美元。可以随时停止翻牌,在最优策略下平均能得到多少钱。(Red is good)
这个问题乍一看似乎很简单每次翻牌的贡献为1或-1 并且这是一个相对概率 (每次翻牌都会影响下一次翻牌的结果) 因此需转化为绝对概率才能进行线性递推 那么思路很清晰了 我们利用二维数组记录红牌和黑牌数进行概率转移 进而完成期望转移
然而这个问题真的结束了吗?显然没有 要不然我举这个例子干什么 我们发现忽略了题目中的一个关键信息:
最优策略下可以随时停止翻牌 而我们只考虑S集合下的期望值 显然不正确啊!当目前集合期望值小于零时我们可以停止翻牌
也就是说我们舍弃了这个集合的期望值(注意:这种舍弃行为仅在期望的对象可变时才具备正确性)
这道题中我们将集合S中的期望值转化为其子集中的期望值然后舍弃了非最优决策(相当与从集合S中删除了该集合)
进一步拓展开来期望与概率并不是一成不变的在主观作用下 试验结果可以被更改和调整 因此 在解题中也要考虑主观加持下试验结果的可变性
标签:概率,期望,公式,事件,集合,随机变量 来源: https://blog.csdn.net/LO_XJY_VE/article/details/117201043
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。