<基础系列>1:先验概率 & 后验概率

<基础系列>1:先验概率 & 后验概率

这次为大家带来的是我们专栏基础系列的文章,主要内容是介绍先验概率和后验概率。这是概率论与数理统计中的知识,也是机器学习领域的基础知识。即使是深度学习飞速发展的今天,概率理论以及贝叶斯方法也应该得到足够的重视,在后续我们介绍变分自编码器(VAE)的时候大家可以体会到其实神经网络并不是那么“黑”,很多网络都是有漂亮并且扎实的理论基础的,尤其是概率统计基础。

一、全概率公式&贝叶斯公式

在介绍先验、后验概率之前我们先来复习一下全概率公式和贝叶斯公式

全概率公式:设事件 B_{1},B_{2},...B_{n} 构成一个完备事件组,即它们两两不相容,和为全集且 P(B_{i})>0 ,则对任一事件 A 有:

P(A)=\Sigma_{i=1}^{n}P(B_{i})P(A|B_{i})

可以看出,全概率公式是“由因推果”的思想,当知道某件事的原因后,推断由某个原因导致这件事发生的概率为多少。

贝叶斯公式:符号定义与全概率公式相同,则:

P(B_{i}|A)=\frac{P(B_{i})P(A|B_{i})}{P(A)} =\frac{P(B_{i})P(A|B_{i})}{\Sigma_{i=1}^{n}P(B_{i})P(A|B_{i})}

可以看出,贝叶斯公式是“由果溯因”的思想,当知道某件事的结果后,由结果推断这件事是由各个原因导致的概率为多少。


二、先验概率&后验概率

先验概率(prior probability):指根据以往经验和分析。在实验或采样前就可以得到的概率。

后验概率(posterior probability):指某件事已经发生,想要计算这件事发生的原因是由某个因素引起的概率。

可以看出,先验概率就是事先可估计的概率分布,而后验概率类似贝叶斯公式“由果溯因”的思想。下面我们通过PRML(Pattern Recognition and Machine Learning)这本书中的例子来理解一下上面的定义。

假设我们现在有两个盒子,分别为红色和蓝色。在红色盒子中放着2个苹果和6个橙子,在蓝色盒子中放着1个橙子和3个苹果,如下图所示:

图中绿色表示苹果,橙色代表橙子。假设我们每次实验的时候会随机从某个盒子里挑出一个水果,随机变量B(box)表示挑出的是哪个盒子,并且P(B=blue) = 0.6(蓝色盒子被选中的概率),P(B=red) = 0.4(红色盒子被选中的概率)。随机变量F(fruit)表示挑中的是哪种水果,F的取值为"a (apple)"和"o (orange)"。

现在假设我们已经得知某次实验中挑出的水果是orange,那么这个orange是从红色盒子里挑出的概率是多大呢?依据贝叶斯公式有:

P(B=red|F=o)=\frac{P(F=o|B=red)P(B=red)}{P(F=o)}=\frac{3}{4}\times\frac{4}{10}\times\frac{20}{9}=\frac{2}{3}

同时,由概率的加法规则我们可以得到:

P(B=blue|F=o)=1-\frac{2}{3}=\frac{1}{3}
在上面的计算过程中,我们将 P(B=red) 或者说 P(B) 称为先验概率(prior probability),因为我们在得到F是“a”或者“o”之前,就可以得到 P(B) 。同理,将 P(B=red|F=o)P(B=blue|F=o) 称为后验概率,因为我们在完整的一次实验之后也就是得到了F的具体取值之后才能得到这个概率。

三、总结

本次的文章很简短,只介绍了先验概率和后验概率,希望我们在这里将这个小知识点讲清楚了,也希望大家在以后遇到这两个名词时如果产生了混淆可以通过回忆这个简单的例子来弄清楚。后面我们在介绍生成模型和判别模型的区别以及其他基于贝叶斯思想的算法时还会再使用这个知识点。

如果本文有任何原理或编辑上的错误希望大家不吝告知,谢谢。


——Double_D编辑

发布于 2018-07-31

文章被以下专栏收录