二項分布
概率质量函數
累積分布函數
记号
B (n , p ) 参数
n
≥
0
{\displaystyle n\geq 0}
试验次数 (整数 )
0
≤
p
≤
1
{\displaystyle 0\leq p\leq 1}
成功概率 (实数 ) 值域
k
∈
{
0
,
…
,
n
}
{\displaystyle k\in \{0,\dots ,n\}\!}
概率质量函数
(
n
k
)
p
k
(
1
−
p
)
n
−
k
{\displaystyle {n \choose k}p^{k}(1-p)^{n-k}\!}
累積分布函數
I
1
−
p
(
n
−
⌊
k
⌋
,
1
+
⌊
k
⌋
)
{\displaystyle I_{1-p}(n-\lfloor k\rfloor ,1+\lfloor k\rfloor )\!}
期望值
n
p
{\displaystyle n\,p\!}
中位數
{
⌊
n
p
⌋
,
⌈
(
n
+
1
)
p
⌉
}
{\displaystyle \{\lfloor np\rfloor ,\lceil (n+1)p\rceil \}}
之一 眾數
⌊
(
n
+
1
)
p
⌋
{\displaystyle \lfloor (n+1)\,p\rfloor \!}
或
⌊
(
n
+
1
)
p
⌋
−
1
{\displaystyle \lfloor (n+1)\,p\rfloor \!-1}
方差
n
p
(
1
−
p
)
{\displaystyle n\,p\,(1-p)\!}
偏度
1
−
2
p
n
p
(
1
−
p
)
{\displaystyle {\frac {1-2\,p}{\sqrt {n\,p\,(1-p)}}}\!}
峰度
1
−
6
p
(
1
−
p
)
n
p
(
1
−
p
)
{\displaystyle {\frac {1-6\,p\,(1-p)}{n\,p\,(1-p)}}\!}
熵
1
2
ln
(
2
π
n
e
p
(
1
−
p
)
)
+
O
(
1
n
)
{\displaystyle {\frac {1}{2}}\ln \left(2\pi nep(1-p)\right)+O\left({\frac {1}{n}}\right)\!}
矩生成函数
(
1
−
p
+
p
e
t
)
n
{\displaystyle (1-p+p\,e^{t})^{n}\!}
特徵函数
(
1
−
p
+
p
e
i
t
)
n
{\displaystyle (1-p+p\,e^{i\,t})^{n}\!}
在概率论 和统计学 中,二项分布 (英語:Binomial distribution )是
n
{\displaystyle n}
个独立 的是/非试验中成功的次数的离散概率分布 ,其中每次试验的成功概率 为
p
{\displaystyle p}
。这样的单次成功/失败试验又称为伯努利试验 。实际上,当
n
=
1
{\displaystyle n=1}
时,二项分布就是伯努利分布 。二项分布是显著性差异 的二项试验 的基础。
概率质量函数 [ 编辑 ]
一般來說,若随机变量
X
{\displaystyle {\mathit {X}}}
服从参数为
n
{\displaystyle {\mathit {n}}}
和
p
{\displaystyle {\mathit {p}}}
的二项分布,我们记作
X
∼
b
(
n
,
p
)
{\displaystyle X\sim b(n,p)}
或
X
∼
B
(
n
,
p
)
{\displaystyle X\sim B(n,p)}
。n次试验中正好得到k 次成功的概率由概率质量函数 给出:
f
(
k
,
n
,
p
)
=
Pr
(
X
=
k
)
=
(
n
k
)
p
k
(
1
−
p
)
n
−
k
{\displaystyle f(k,n,p)=\Pr(X=k)={n \choose k}p^{k}(1-p)^{n-k}}
对于
k
=
0
,
1
,
2
,
⋯
,
n
{\displaystyle k=0,1,2,\cdots ,n}
,其中
(
n
k
)
=
n
!
k
!
(
n
−
k
)
!
{\displaystyle {n \choose k}={\frac {n!}{k!(n-k)!}}}
是二项式系数 (这就是二项分布的名称的由来),又记为
C
(
n
,
k
)
{\displaystyle C(n,k)}
,
n
C
k
{\displaystyle _{n}C_{k}}
,或
n
C
k
{\displaystyle ^{n}C_{k}}
。该公式可以用以下方法理解:我们希望有
k
{\displaystyle k}
次成功(機率為
p
k
{\displaystyle p^{k}}
)和
n
−
k
{\displaystyle n-k}
次失败(機率為
(
1
−
p
)
n
−
k
{\displaystyle (1-p)^{n-k}}
)。然而,
k
{\displaystyle k}
次成功可以在
n
{\displaystyle {\mathit {n}}}
次试验的任何地方出现,而把
k
{\displaystyle k}
次成功分布在
n
{\displaystyle {\mathit {n}}}
次试验中共有
C
(
n
,
k
)
{\displaystyle C(n,k)}
个不同的方法。
在制造二项分布概率的参考表格时,通常表格中只填上
n
2
{\displaystyle {\frac {n}{2}}}
个值。这是因为
k
>
n
2
{\displaystyle k>{\frac {n}{2}}}
时的概率可以从它的补集计算出:
f
(
k
;
n
,
p
)
=
f
(
n
−
k
;
n
,
1
−
p
)
{\displaystyle f(k;n,p)=f(n-k;n,1-p)\,}
因此,我们要看另外一个
k
{\displaystyle k}
和另外一个
p
{\displaystyle p}
(二项分布一般不是对称的)。然而,它的表现不是任意的。总存在一个整数
M
{\displaystyle M}
,满足:
(
n
+
1
)
p
−
1
<
M
≤
(
n
+
1
)
p
{\displaystyle (n+1)p-1<M\leq (n+1)p\,}
作为
k
{\displaystyle k}
的函数,表达式
f
(
k
;
n
,
p
)
{\displaystyle f(k;n,p)}
当
k
<
M
{\displaystyle k<M}
时单调递增,
k
>
M
{\displaystyle k>M}
时单调递减,只有当
(
n
+
1
)
p
{\displaystyle (n+1)p}
是整数时例外。在这时,有两个值使
f
{\displaystyle f}
达到最大:
(
n
+
1
)
p
{\displaystyle (n+1)p}
和
(
n
+
1
)
p
−
1
{\displaystyle (n+1)p-1}
。
M
{\displaystyle M}
是伯努利试验的最可能的结果,称为众数 。注意它发生的概率可以很小。
累积分布函数(概率分布函数) [ 编辑 ]
累积分布函数 可以表示为:
F
(
x
;
n
,
p
)
=
Pr
(
X
≤
x
)
=
∑
i
=
0
⌊
x
⌋
(
n
i
)
p
i
(
1
−
p
)
n
−
i
{\displaystyle F(x;n,p)=\Pr(X\leq x)=\sum _{i=0}^{\lfloor x\rfloor }{n \choose i}p^{i}(1-p)^{n-i}}
其中
⌊
x
⌋
{\displaystyle \lfloor x\rfloor \,}
是小于或等于
x
{\displaystyle x}
的最大整数 。
它也可以用正则化不完全贝塔函数 来表示:
F
(
k
;
n
,
p
)
=
Pr
(
X
≤
k
)
=
I
1
−
p
(
n
−
k
,
k
+
1
)
=
(
n
−
k
)
(
n
k
)
∫
0
1
−
p
t
n
−
k
−
1
(
1
−
t
)
k
d
t
{\displaystyle {\begin{aligned}F(k;n,p)&=\Pr(X\leq k)=I_{1-p}(n-k,k+1)\\&=(n-k){n \choose k}\int _{0}^{1-p}t^{n-k-1}(1-t)^{k}\,dt\end{aligned}}}
期望和方差 [ 编辑 ]
如果
X
∼
B
(
n
,
p
)
{\displaystyle X\sim B(n,p)}
(也就是说,
X
{\displaystyle X}
是服从二项分布的随机变量),那么
X
{\displaystyle X}
的期望值 为
E
[
X
]
=
n
p
{\displaystyle \operatorname {E} [X]=np}
方差 为
Var
[
X
]
=
n
p
(
1
−
p
)
.
{\displaystyle \operatorname {Var} [X]=np(1-p).}
这个事实很容易证明。首先假设有一个伯努利试验。试验有两个可能的结果:1和0,前者发生的概率为
p
{\displaystyle p}
,后者的概率为
1
−
p
{\displaystyle 1-p}
。该试验的期望值等于
μ
=
1
⋅
p
+
0
⋅
(
1
−
p
)
=
p
{\displaystyle \mu =1\cdot p+0\cdot (1-p)=p}
。该试验的方差也可以类似地计算:
σ
2
=
(
1
−
p
)
2
⋅
p
+
(
0
−
p
)
2
⋅
(
1
−
p
)
=
p
(
1
−
p
)
{\displaystyle \sigma ^{2}=(1-p)^{2}\cdot p+(0-p)^{2}\cdot (1-p)=p(1-p)}
.
一般的二项分布是
n
{\displaystyle n}
次独立的伯努利试验的和。它的期望值和方差分别等于每次单独试验的期望值和方差的和:
μ
n
=
∑
k
=
1
n
μ
=
n
p
,
σ
n
2
=
∑
k
=
1
n
σ
2
=
n
p
(
1
−
p
)
.
{\displaystyle \mu _{n}=\sum _{k=1}^{n}\mu =np,\qquad \sigma _{n}^{2}=\sum _{k=1}^{n}\sigma ^{2}=np(1-p).}
众数和中位数 [ 编辑 ]
通常二项分布
B
(
n
,
p
)
{\displaystyle B(n,p)}
的众数 等于
⌊
(
n
+
1
)
p
⌋
{\displaystyle \lfloor (n+1)p\rfloor }
,其中
⌊
⋅
⌋
{\displaystyle \lfloor \cdot \rfloor }
是取整函数 。然而,当
(
n
+
1
)
p
{\displaystyle (n+1)p}
是整数且
p
{\displaystyle p}
不等于0或1时,分布有两个众数:
(
n
+
1
)
p
{\displaystyle (n+1)p}
和
(
n
+
1
)
p
−
1
{\displaystyle (n+1)p-1}
。当
p
{\displaystyle p}
等于0或1时,众数相应地等于0或
n
{\displaystyle n}
。这些情况可以综述如下:
mode
=
{
⌊
(
n
+
1
)
p
⌋
若
(
n
+
1
)
p
是 0 或 非 整 数
,
(
n
+
1
)
p
和
(
n
+
1
)
p
−
1
若
(
n
+
1
)
p
∈
{
1
,
…
,
n
}
,
n
若
(
n
+
1
)
p
=
n
+
1.
{\displaystyle {\text{mode}}={\begin{cases}\lfloor (n+1)\,p\rfloor &{\text{若 }}(n+1)p{\text{ 是 0 或 非 整 数 }},\\(n+1)\,p\ {\text{ 和 }}\ (n+1)\,p-1&{\text{若 }}(n+1)p\in \{1,\dots ,n\},\\n&{\text{若 }}(n+1)p=n+1.\end{cases}}}
一般地,没有一个单一的公式可以求出二项分布的中位数 ,甚至中位数可能是不唯一的。然而有几个特殊的结果:
如果
n
p
{\displaystyle np}
是整数,那么平均数、中位数和众数相等,都等于
n
p
{\displaystyle np}
。[1] [2]
任何中位数
m
{\displaystyle m}
都位于区间
⌊
n
p
⌋
≤
m
≤
⌈
n
p
⌉
{\displaystyle \lfloor np\rfloor \leq m\leq \lceil np\rceil }
内。[3]
中位数
m
{\displaystyle m}
不能离平均数太远:
|
m
−
n
p
|
≤
min
{
ln
2
,
max
{
p
,
1
−
p
}
}
{\displaystyle \left\vert m-np\right\vert \leq \min\{\ln 2,\ \max\{p,1-p\}\}}
。[4]
如果
p
≤
1
−
ln
2
{\displaystyle p\leq 1-\ln 2}
,或
p
≥
ln
2
{\displaystyle p\geq \ln 2}
,或
|
m
−
n
p
|
≤
min
{
p
,
1
−
p
}
{\displaystyle \left\vert m-np\right\vert \leq \min\{p,1-p\}}
(除了
p
=
1
2
{\displaystyle p={\frac {1}{2}}}
、
n
{\displaystyle n}
是奇数的情况以外),那么中位数是唯一的,且等于
m
=
r
o
u
n
d
(
n
p
)
{\displaystyle m=\mathrm {round} (np)}
。[3] [4]
如果
p
=
1
2
{\displaystyle p={\frac {1}{2}}}
,且
n
{\displaystyle n}
是奇数,那么区间
1
2
(
n
−
1
)
≤
m
≤
1
2
(
n
+
1
)
{\displaystyle {\frac {1}{2}}(n-1)\leq m\leq {\frac {1}{2}}(n+1)}
中的任何数
m
{\displaystyle m}
都是二项分布的中位数。如果
p
=
1
2
{\displaystyle p={\frac {1}{2}}}
且
n
{\displaystyle n}
是偶数,那么
m
=
n
2
{\displaystyle m={\frac {n}{2}}}
是唯一的中位数。
两个二项分布的协方差 [ 编辑 ]
如果有两个服从二项分布的随机变量
X
{\displaystyle X}
和
Y
{\displaystyle Y}
,我们可以求它们的协方差。利用协方差 的定义,当
n
=
1
{\displaystyle n=1}
时我们有
Cov
(
X
,
Y
)
=
E
(
X
Y
)
−
μ
X
μ
Y
.
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} (XY)-\mu _{X}\mu _{Y}.}
第一项仅当
X
{\displaystyle X}
和
Y
{\displaystyle Y}
都等于1时非零,而
μ
x
{\displaystyle \mu _{x}}
和
μ
y
{\displaystyle \mu _{y}}
分别为
X
=
1
{\displaystyle X=1}
和
Y
=
1
{\displaystyle Y=1}
的概率。定义
p
B
{\displaystyle p_{B}}
为
X
{\displaystyle X}
和
Y
{\displaystyle Y}
都等于1的概率,便得到
Cov
(
X
,
Y
)
=
p
B
−
p
X
p
Y
,
{\displaystyle \operatorname {Cov} (X,Y)=p_{B}-p_{X}p_{Y},\,}
对于n 次独立的试验,我们便有
Cov
(
X
,
Y
)
n
=
n
(
p
B
−
p
X
p
Y
)
.
{\displaystyle \operatorname {Cov} (X,Y)_{n}=n(p_{B}-p_{X}p_{Y}).\,}
如果
X
{\displaystyle X}
和
Y
{\displaystyle Y}
是相同的变量,便化为上面的方差公式。
与其他分布的关系 [ 编辑 ]
二项分布的和 [ 编辑 ]
如果
X
∼
B
(
n
,
p
)
{\displaystyle X\sim B(n,p)}
和
Y
∼
B
(
m
,
p
)
{\displaystyle Y\sim B(m,p)}
,且
X
{\displaystyle X}
和
Y
{\displaystyle Y}
相互独立,那么
X
+
Y
{\displaystyle X+Y}
也服从二项分布;它的分布为
X
+
Y
∼
B
(
n
+
m
,
p
)
.
{\displaystyle X+Y\sim B(n+m,p).\,}
伯努利分布 [ 编辑 ]
伯努利分布 是二项分布在
n
=
1
{\displaystyle n=1}
时的特殊情况。
X
∼
B
(
1
,
p
)
{\displaystyle X\sim B(1,p)}
与
X
∼
B
e
r
n
(
p
)
{\displaystyle X\thicksim \mathrm {Bern} (p)}
的意思是相同的。相反,任何二项分布
B
(
n
,
p
)
{\displaystyle B(n,p)}
都是
n
{\displaystyle n}
次独立伯努利试验 的和,每次试验成功的概率为
p
{\displaystyle p}
。
泊松二项分布 [ 编辑 ]
二项分布是泊松二项分布 的一个特殊情况。泊松二项分布 是
n
{\displaystyle n}
次独立、不相同的伯努利试验 (
p
i
{\displaystyle p_{i}}
)的和。如果
X
{\displaystyle X}
服从泊松二项分布,且
p
1
=
⋯
=
p
n
=
p
{\displaystyle p_{1}=\cdots =p_{n}=p}
,那么
X
∼
B
(
n
,
p
)
{\displaystyle X\sim B(n,p)}
。
正态近似 [ 编辑 ]
n
=
6
{\displaystyle n=6}
、
p
=
0.5
{\displaystyle p=0.5}
时的二项分布 以及正态近似
如果
n
{\displaystyle n}
足够大,那么分布的偏度就比较小。在这种情况下,如果使用适当的连续性校正 ,那么
B
(
n
,
p
)
{\displaystyle B(n,p)}
的一个很好的近似是正态分布 :
N
(
n
p
,
n
p
(
1
−
p
)
)
{\displaystyle {\mathcal {N}}(np,\,np(1-p))}
V
a
r
(
x
)
=
n
p
(
1
−
p
)
{\displaystyle {\mathcal {Var}}(x)=np(1-p)}
n
{\displaystyle n}
越大(至少30),近似越好,当
p
{\displaystyle p}
不接近0或1时更好。[5] 不同的经验法则 可以用来决定
n
{\displaystyle n}
是否足够大,以及
p
{\displaystyle p}
是否距离0或1足够远:
一个规则是
n
p
{\displaystyle np}
和
n
(
1
−
p
)
{\displaystyle n(1-p)}
都必须大于5。
泊松近似 [ 编辑 ]
当试验的次数趋于无穷大,而乘积
n
p
{\displaystyle np}
固定时,二项分布收敛于泊松分布 。因此参数为
λ
=
n
p
{\displaystyle \lambda =np}
的泊松分布可以作为二项分布
B
(
n
,
p
)
{\displaystyle B(n,p)}
的近似,如果
n
{\displaystyle n}
足够大,而
p
{\displaystyle p}
足够小。[6]
当
n
{\displaystyle n}
趋于
∞
{\displaystyle \infty }
,
p
{\displaystyle p}
趋于0,而
n
p
{\displaystyle np}
固定于
λ
>
0
{\displaystyle \lambda >0}
,或至少
n
p
{\displaystyle np}
趋于
λ
>
0
{\displaystyle \lambda >0}
时,二项分布
B
(
n
,
p
)
{\displaystyle B(n,p)}
趋于期望值 为λ的泊松分布 。
当
n
{\displaystyle n}
趋于
∞
{\displaystyle \infty }
而
p
{\displaystyle p}
固定时,
X
−
n
p
n
p
(
1
−
p
)
{\displaystyle {X-np \over {\sqrt {np(1-p)\ }}}}
的分布趋于期望值为 0、方差 为 1的正态分布 。这个结果是中心极限定理 的一个特殊情况。
一个简单的例子如下:掷一枚骰子 十次,那么掷得4的次数就服从
n
=
10
{\displaystyle n=10}
、
p
=
1
6
{\displaystyle p={\frac {1}{6}}}
的二项分布。
参考文献 [ 编辑 ]
^ Neumann, P. Über den Median der Binomial- and Poissonverteilung. Wissenschaftliche Zeitschrift der Technischen Universität Dresden. 1966, 19 : 29–33 (德语) .
^ Lord, Nick. (July 2010). "Binomial averages when the mean is an integer", The Mathematical Gazette 94, 331-332.
^ 3.0 3.1 Kaas, R.; Buhrman, J.M. Mean, Median and Mode in Binomial Distributions. Statistica Neerlandica. 1980, 34 (1): 13–18. doi:10.1111/j.1467-9574.1980.tb00681.x .
^ 4.0 4.1 Kais Hamza. The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions . Statistics & Probability Letters: 21–25. [2018-04-02 ] . doi:10.1016/0167-7152(94)00090-u . (原始内容存档 于2020-12-15). (页面存档备份 ,存于互联网档案馆 )
^ Box, Hunter and Hunter. Statistics for experimenters . Wiley. 1978: 130 .
^ NIST /SEMATECH , "6.3.3.1. Counts Control Charts" (页面存档备份 ,存于互联网档案馆 ), e-Handbook of Statistical Methods.