量化百科

概率simple入门

由iquant创建,最终由iquant 被浏览 9 用户

(更正了算式重复显示两次的部分)

该篇内容是Joseph K. Blitzstein的《Introduction to Probability》中的第一章,该概率书非常适合入门。文章是加入自己理解后的总结。以服务于机器学习的理解视角切入。

gitbook阅读地址:概率 · 超智能体。gitbook上的一节,转移到知乎上。

概率

通过线性代数(线性代数简单入门地址),我们知道了该如何描述事物状态及其变化。遗憾的是,对一个微小的生物而言,世界并非确定性(nondeterministic)的,由于信息量的限制,很多事物是无法确定其变化后会到达哪种状态。然而为了更好的生存,预测未来状态以决定下一刻的行为至关重要。而概率给我们的决策提供了依据。推荐读物《Introduction to Probability

一、什么是概率?

概率是用来衡量我们对事物在跨时间后不同状态的确信度

  • **设想:**如果时间静止,其实并不需要概率。因为不确定的信息永远不知道,新的不确定性也永远不出产生。所以一定要以时间轴会变化的角度去理解概率。概率是观察者畅想一个状态从某个时间点变化到另个时间点后的确信度。跨时间可以是过去到未来,也可以是未来到过去。

  • **情景:**如何考虑转盘在未来停止后指针指向各个数字的可能性?为方便研究,需要总结出在任何情况都普遍适用的属性,并给予它们固定的名字。

    1,2,3是可能被指到的三个结果(outcome)。在这里,这三个结果组成的集合也同时是样本空间(sample space),即无论事态如何发展,结果都不会出现在该集合之外(和向量空间一样)。样本空间的子集,如{1,2}叫做一个事件(event),表示指针指到1或2的情况。满足任何一个情况都算作该事件发生了(occurred)。所有事件发生的可能性都用值域为[0,1]间的实数表示,1表示必然发生,0表示不可能发生。{1}, {2,3}两个不相交的事件的概率和为1。[0,1]间的实数是概率得出的值,但并非概率的全部。概率是一个函数。

![](data:image/svg+xml;utf8,<svg%20xmlns='http://www.w3.org/2000/svg' width='442' height='220'></svg>)

**概率:**概率是将样本空间内的子集投向概率空间的函数。

概率 P( )将事件 Asubset S作为输入,并输出 0,1之间的实数表示其发生的可能性。该函数需要满足两个条件:

1. P( emptyset)=0, P(S)=1,空集的概率为0,全集的概率为1。

2. P(bigcuplimits_{j=1}^{infty}A_{j})=sumlimits_{j=1}^{infty}P(A_{j}),不相交事件之间的并集事件的概率等于各个事件概率之和。

**结果:**可能到达的状态

**样本空间:**所有可能发生的结果所组成的集合。

**事件:**样本空间的子集。

当实际发生的结果 s_{outcome}in A时,表示 A事件发生。

二、朴素概率的计算以及和普遍概率的区别是什么?

人们在计算概率时常常犯的错误就是不假思索的假定所有结果所发生的可能性都相同。并用事件的结果个数比上样本空间的结果个数。

朴素概率: P_{naive}(A)=|A|/|S||A||S|表示集合中元素的个数。

但是这种假设并不严谨。

  • 实例:在上图原盘问题中,如果使用朴素概率来计算指针停止时指向2的概率,就会得到 P_{naive}=|A|/|S|=1/3的概率。但很明显,指向3的结果就占有原盘一半的空间,指向3的概率更大。使得各个结果发生的可能性并不相同。不可以使用朴素概率算法。从图中可以看出答案是 1/4

样本空间好比是总价为1的一筐苹果,一个事件就是一堆苹果,概率是将这堆苹果转换成实际价钱的函数。但苹果有大有小,只有当所有苹果都一模一样时,这堆苹果的价钱才是 苹果数/总个数。空集,即一个苹果都没有的话,价格为0。整框苹果的话,价格自然为1。把整框苹果分成几堆(事件之间不相交),价格的总和为1。

![](data:image/svg+xml;utf8,<svg%20xmlns='http://www.w3.org/2000/svg' width='389' height='359'></svg>)

条件概率

当我们获得更多信息后,新信息会对原始样本空间产生更新。

三、条件概率又是什么?

条件概率是新信息对样本空间进行调整后的概率情况。

  • **实例:**从一副洗好的扑克里,不放回的依次抽两张卡片。事件 A表示第一张卡片是心,事件 B表示第二张卡片是红色。求事件 B发生的条件下,事件 A发生的概率 P(A|B)。以及事件 A发生的条件下,事件 B发生的概率 P(B|A)

    卡片都是均匀形状,可用朴素概率计算。最初的样本空间是 54∗53=2862 种。事件B发生后,样本空间被调整,所有第二张不是红色的结果都会从样本空间内去掉,变成 26∗53=1378种(可认为第二张先抓,顺序不影响组合结果)。其中第一张是心,且第二张是红色的结果有13∗25=325种。所以 P(A|B)的概率为 325/1378≈0.236。

    事件 A发生后,所有第一张不是心的结果都会从样本空间内去掉,变成13∗53=689种。其中第一张是心,且第二张是红色的结果有 13∗25=325种。所以 P(B|A)的概率为325/689≈0.472。

    P(A|B)P(B|A)二者的条件对原始样本空间的调整不同,所以并不相等。同时“|”右边的事件并不意味着先发生,也并不意味着是左边事件的起因。

  • **实例:**先后投两次硬币。原始样本空间是{正正,反反,正反,反正}。已知事件 A是第一次投得正面,事件 B是第二次投得正面。 P(B|A)更新后的样本空间为{正正,正反}。但第二次投得正面的概率仍然是1/2。事件 A和事件 B彼此没有影响,叫做两个事件独立。

条件概率: P(A|B)=P(A∩B)/P(B)P(A|B)=P(A∩B)/P(B)

P(A|B)表示 B事件条件下, A发生的条件概率。

P(A)叫做先验概率(prior probability),即事态未更新时, A事件的概率。

P(A|B)也叫做后验概率(posterior probability),即事态更新后, A事件的概率。

P(A∩B)B发生后 A的事件集合,而除以 P(B)是在该基础上,将样本空间的总概率重新调整为1。

当事件 AB为独立事件时,其中一个事件的发生并不会对另一个事件的样本空间产生影响。即 P(A|B)=P(A)P(A|B)=P(A)P(B|A)=P(B)P(B|A)=P(B)

贝叶斯公式

人们经常将 P(A|B)P(B|A)搞混,把二者搞混的现象叫做检察官谬误(prosecutor's fallacy)。

四、 P(A|B)P(B|A)两者之间的关系是什么?

  • **实例:**某机器对在所有人口中得病率为1%的癌症识别率为95%(有病的人被测出患病的概率和没病的人被测出健康的概率)。一个被测得有病的人真实患癌症的概率是多少?

    得出答案是95%的人就是搞混了 P(A|B)P(B|A)。正确答案约等于16%。拿10000个人来思考。

真正的样本空间是由测得有病的癌症患者和测得有病的正常人组成,所以答案是95/(95+495)≈16%。

我们知道条件概率是新信息对样本空间进行调整后的概率情况,所以检察官谬误实际上是样本空间的更新产生了差错。不过我们可以从条件概率中寻找关系:通过变形条件概率的定义,就可以得出著名的贝叶斯公式和全概率公式。

贝叶斯公式(Bayes' theorem): P(A|B)=P(B|A)P(A)/P(B)

全概率公式(Law of total probability): P(B)=sumlimits_{i}^{n}P(B|A_{i})P(A_{i})

其中 A_{i}是样本空间 S的分割(partition),即彼此不相交,并且组成的并集是样本空间。

如下图:

![](data:image/svg+xml;utf8,<svg%20xmlns='http://www.w3.org/2000/svg' width='241' height='183'></svg>)

用这两个公式,我们重新计算上面的癌症问题:

  • 实例: 其中 P(A) 是人口中患癌症的概率,为1%, P(B)是测得有病的概率。 P(A|B)就是测得有病时,患癌症的概率。 P(B|A)是有患癌症时,测得有病的概率,为95%。 P(B|AC)就是没病时却测得有癌症的概率,为5%。

    想知道的是,当被测得有病时,真正患癌症的概率 P(A|B)是多少。

    由贝叶斯公式可以得到: P(A|B)=P(B|A)P(A)/P(B)=0.950.01/P(B)

    由全概率公式可以得到: P(B)=P(B|A)P(A)+P(B|A^{C})P(A^{C})

    全部代入就得到: 0.95%

这两个公式在机器学习中非常重要。贝叶斯公式告诉了我们 P(A|B)P(B|A)两者之间的关系。很多时候,我们难以得出其中一个的时候,可以改求另一个。

  • **实例:**语音识别中,听到某串声音的条件 o下,该声音是某段语音 s的条件概率最大的 argmax_{w} P(s|o)为识别结果。然而 P(s|o)并不好求。所以改求 P(s|o)=P(o|s)P(s)/P(o)P(o)对比较同一个 P(s|o)时并没有影响,因为大家都有,则不需要考虑。剩下的 P(o|s)叫做声学模型,描述该段语音会发出什么样的声音。而 P(s)叫做语言模型,包含着语法规则信息。

而全概率公式又是连接条件概率与非条件概率的桥梁。

全概率公式可以将非条件概率,分成若干块条件概率来计算。

  • 实例:三门问题。三扇门中有一扇门后是汽车,其余是羊。参赛者会先被要求选择一扇门。这时主持人会打开后面是羊的一扇门,并给参赛者换到另一扇门的机会。问题是参赛者该不该换? 应该换门。换门后获得汽车的概率为2/3,不换门的概率为1/3。

    用全概率公式来思考该问题就可以将问题拆分成若干个相对简单的条件概率。

    P(get car)获得汽车的概率可以用拆分成选择各个门可得汽车的概率。 P(D_{1})为车在第一扇门的概率。 P(get car)=P(get car|D_{1})P(D_{1})+P(get car|D_{2})P(D_{2})+P(get car|D_{3})P(D_{3})

    P(get car)=P(get car|D_{1})1/3+P(get car|D_{2})1/3+P(get car|D_{3})1/3

    如果不换门,得车的概率就是 P(D_1),即1/3.

    若换门。当车在第一扇门后时, P(get car|D_{1})1/3由于换门的选择而变成了0。

    但当车在第二或第三扇门后时,由于主持人去掉了一扇后面为羊的门,换门的选择会100%得到车。

    所以, P(get car)=0

随机变量

五、是否有更好的方式表达事件?

随机变量是一种非常方便的事件表达方式。虽然它的名字叫做随机变量,但它实际上是一个函数。 我们在“什么是概率”的例子中已经应用了随机变量的概念。我们用数字去表达事件。比较一下不用随机变量的方式。

  • **实例:**我们用文字去表达事件和概率。样本空间 Omega = { 橘黄色,绿色,蓝色 }。

    情况1:若仅仅是问转盘停止后指针指到某个颜色的概率还可以接受。如 P(指到橘黄色)。

    情况2:如果是奖励游戏,转到橘黄、绿、蓝色分别奖励1、2、3元。转3次后,想知道奖励了多少钱的概率。3元的我们要写一次描述,4元的也要写一次描述。十分笨拙。如果想问的是美元呢?我们又没办法用事件去乘以汇率。

然而如果用随机变量,就变得非常方便。设 X_{r}表示转 r次后一共奖励了多少人民币。 c是人民币对美元汇率的话, c cdot X_{r}就表示表示转 r次后一共奖励了多少美元。 X_{r+1}-X(r)就表示了下一局赢得了多少人民币。

随机变量:给定一个样本空间 Omega一个随机变量( r.v.)是将样本空间投射到实数域的函数。

一个样本空间可以有很多个随机变量。在最初的例子,我们就已经将样本空间 Omega={橘黄色,绿色,蓝色}对应到了实数域中的1,2,3。

![](data:image/svg+xml;utf8,<svg%20xmlns='http://www.w3.org/2000/svg' width='370' height='167'></svg>)

随机变量作为函数而言是确定的。输入事件橘黄色,一定会得到1这个输出,函数本身并没有什么“随机”。“随机”是由于函数的输入的发生概率。

X=3表达的是指针指到蓝色的事件。 P(X=3)表达指针指到蓝色的事件的概率。

随机变量是认为事先选择的,非常灵活,好的随机变量会使问题简化许多。

根据随机变量投射后的值域是离散还是连续,随机变量可以分为离散随机变量和连续随机变量。

分布

随机变量中的“随机”来自事件发生的概率。分布(distribution)是描述随机变量所对应的所有事件的发生概率的情况。

  • 实例:上例随机变量 X_1(转1次奖励人民币数)的分布情况用概率质量函数(probability mass function,简写为PMF)表示就是:

    ![](data:image/svg+xml;utf8,<svg%20xmlns='http://www.w3.org/2000/svg' width='239' height='255'></svg>)

概率五要件

  • **样本空间:**所有可能结果组成的集合。

  • **随机变量:**将事件投向实数的函数。用数字代表事件。

  • **事件:**样本空间的子集。

  • **概率:**将事件投向 0,1实数域的函数。用实数表示确信度。

  • **分布:**随机变量的取值情况。

    ![](data:image/svg+xml;utf8,<svg%20xmlns='http://www.w3.org/2000/svg' width='900' height='478'></svg>)

注意在应用中区分物理意义与数学定义。如随机变量虽然是以事件为输入,实数为输出。但是在用于表达概率 P(X=3)是用3这个数字去表示事件,并得出该事件的概率,并不是将实数作为输入。又如概率的数学定义是事件投射到 0,1的实数上,但在物理意义中,是样本空间的内在情况决定了事件。上图中:

  • **蓝线:**表示人们为了描述物理现象而定义的数学函数。箭头由输入空间指向输出空间。
    • 概率函数:输入为事件,输出为 0,1实数
    • 随机变量函数:输入为事件,输出为实数(但使用时,用实数代表事件)
    • 概率质量函数:输入为实数,输出为 0,1实数
  • **红线:**表示真实的物理现象。箭头由因指向果。
    • 由确信度所反映的内在分布情况决定了事件的发生。
    • 事件的发生决定了随机变量的输出值。

\

标签

机器学习