概率公理

维基百科,自由的百科全书
跳转至: 导航搜索

機率公理概率論的公理,任何事件發生的概率的定義均滿足概率公理。因其发明者为安德烈·柯尔莫果洛夫,也被人们熟知为柯尔莫果洛夫公理

某个事件E的概率P(E)是定义在“全体”(universe)或者所有可能基础事件的样本空间\Omega时,概率P必须满足以下柯尔莫果洛夫公理。

也可以说,概率可以被解释为定义在样本空间的子集的σ代数上的一个测度,那些子集为事件,使得所有集的测度为1。这个性质很重要,因为这提出了条件概率的自然概念。对于每一个非零概率A都可以在空间上定义另外一个概率:

P(B \vert A) = {P(B \cap A) \over P(A)}

这通常被读作“给定A时B的概率”。如果给定A时B的条件概率与B的概率相同,则A与B被称为是独立的

当样本空间是有限或者可数无限时,概率函数也可以以基本事件\{e_1\}, \{e_2\}, ...定义它的值,这里\Omega = \{e_1, e_2, ...\}

柯尔莫果洛夫公理[编辑]

假设我们有一个基础集\Omega,其子集的集合\mathfrak{F}σ代数,和一个给\mathfrak{F}的元素指定一个实数的函数P\mathfrak{F}的元素是\Omega的子集,称为“事件”。

第一公理[编辑]

对于任意一个集合E\in \mathfrak{F}, 即对于任意的事件P(E)\in [0,1]

即,任一事件的概率都可以用01区间上的一个实数来表示。

第二公理[编辑]

P(\Omega) = 1

即,整体样本集合中的某个基本事件发生的概率为1。更加明确地说,在样本集合之外已经不存在基本事件了。

这在一些错误的概率计算中经常被小看;如果你不能准确地定义整个样本集合,那么任意子集的概率也不可能被定义。

第三公理[编辑]

任意两两不相交事件E_1, E_2, ...可数序列满足P(E_1 \cup E_2 \cup \cdots) = \sum P(E_i)

即,不相交子集的并的事件集合的概率为那些子集的概率的和。这也被称为是σ可加性。如果存在子集间的重叠,这一关系不成立。

如想通过代数了解柯尔莫果洛夫的方法,请参照随机变量代数

概率论引理[编辑]

从柯尔莫果洛夫公理可以推导出另外一些对计算概率有用的法则。

P(A \cup B) = P(A) + P(B) - P(A \cap B)
P(\Omega - E) = 1 - P(E)
P(A \cap B) = P(A) \cdot P(B \vert A)

这一关系给出了贝叶斯定理。以此可以得出A和B是独立的当且仅当

P(A \cap B) = P(A) \cdot P(B)

相关条目[编辑]

外部链接[编辑]