泊松分佈
機率質量函數
橫軸是索引k ,發生次數。該函數只定義在k 為整數的時候。連接線是只為了指導視覺。
累積分佈函數
橫軸是索引k ,發生次數。CDF在整數k 處不連續,且在其他任何地方都是水平的,因為服從泊松分佈的變量只針對整數值。 參數
λ > 0(實數 ) 值域
k
∈
{
0
,
1
,
2
,
3
,
⋯
}
{\displaystyle k\in \{0,1,2,3,\cdots \}}
機率質量函數
λ
k
k
!
e
−
λ
{\displaystyle {\frac {\lambda ^{k}}{k!}}e^{-\lambda }}
累積分佈函數
Γ
(
⌊
k
+
1
⌋
,
λ
)
⌊
k
⌋
!
{\displaystyle {\frac {\Gamma (\lfloor k+1\rfloor ,\lambda )}{\lfloor k\rfloor !}}}
,或
e
−
λ
∑
i
=
0
⌊
k
⌋
λ
i
i
!
{\displaystyle e^{-\lambda }\sum _{i=0}^{\lfloor k\rfloor }{\frac {\lambda ^{i}}{i!}}\ }
,或
Q
(
⌊
k
+
1
⌋
,
λ
)
{\displaystyle Q(\lfloor k+1\rfloor ,\lambda )}
(對於
k
≥
0
{\displaystyle k\geq 0}
,其中
Γ
(
x
,
y
)
{\displaystyle \Gamma (x,y)}
是不完全Γ函數 ,
⌊
k
⌋
{\displaystyle \lfloor k\rfloor }
是高斯符號 ,Q是規則化Γ函數) 期望值
λ
{\displaystyle \lambda }
中位數
≈
⌊
λ
+
1
/
3
−
0.02
/
λ
⌋
{\displaystyle \approx \lfloor \lambda +1/3-0.02/\lambda \rfloor }
眾數
⌈
λ
⌉
−
1
,
⌊
λ
⌋
{\displaystyle \lceil \lambda \rceil -1,\lfloor \lambda \rfloor }
變異數
λ
{\displaystyle \lambda }
偏度
λ
−
1
/
2
{\displaystyle \lambda ^{-1/2}}
峰度
λ
−
1
{\displaystyle \lambda ^{-1}}
熵
λ
[
1
−
log
(
λ
)
]
+
e
−
λ
∑
k
=
0
∞
λ
k
log
(
k
!
)
k
!
{\displaystyle \lambda [1-\log(\lambda )]+e^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}\log(k!)}{k!}}}
(假設
λ
{\displaystyle \lambda }
較大)
1
2
log
(
2
π
e
λ
)
−
1
12
λ
−
1
24
λ
2
−
{\displaystyle {\frac {1}{2}}\log(2\pi e\lambda )-{\frac {1}{12\lambda }}-{\frac {1}{24\lambda ^{2}}}-}
19
360
λ
3
+
O
(
1
λ
4
)
{\displaystyle \qquad {\frac {19}{360\lambda ^{3}}}+O\left({\frac {1}{\lambda ^{4}}}\right)}
動差母函數
exp
(
λ
(
e
t
−
1
)
)
{\displaystyle \exp(\lambda (e^{t}-1))}
特徵函數
exp
(
λ
(
e
i
t
−
1
)
)
{\displaystyle \exp(\lambda (e^{it}-1))}
機率母函數
exp
(
λ
(
z
−
1
)
)
{\displaystyle \exp(\lambda (z-1))}
泊松分佈 (法語:loi de Poisson ;英語:Poisson distribution )又稱Poisson分佈 、帕松分佈 、布瓦松分佈 、布阿松分佈 、普阿松分佈 、波以松分佈 、卜氏分佈 、帕松小數法則 (Poisson law of small numbers),是一種統計 與機率 學裏常見到的離散機率分佈 ,由法國 數學家西莫恩·德尼·泊松 在1838年時發表。
泊松分佈適合於描述單位時間內隨機事件發生的次數的機率分佈。如某一服務設施在一定時間內受到的服務請求的次數,電話交換機 接到呼叫的次數、汽車站台的候客人數、機器出現的故障數、自然災害 發生的次數、DNA序列的變異數、放射性原子核的衰變數、雷射 的光子數分佈等等。(單位時間內發生的次數,可以看作事件發生的頻率,類似物理的頻率
f
{\displaystyle f}
)。
泊松分佈的機率質量函數 為:
P
(
X
=
k
)
=
e
−
λ
λ
k
k
!
{\displaystyle P(X=k)={\frac {e^{-\lambda }\lambda ^{k}}{k!}}}
泊松分佈的參數
λ
{\displaystyle \lambda }
是隨機事件發生次數的數學期望值。
若
X
{\displaystyle X}
服從參數為
λ
{\displaystyle \lambda }
的泊松分佈,記為
X
∼
π
(
λ
)
{\displaystyle X\sim \pi (\lambda )}
,或記為
X
∼
P
o
i
s
s
o
n
(
λ
)
{\displaystyle X\sim Poisson(\lambda )}
.
1、服從泊松分佈的隨機變量 ,其數學期望值 與方差 相等,同為參數
λ
{\displaystyle \lambda }
:
E
(
X
)
=
V
(
X
)
=
λ
{\displaystyle E(X)=V(X)=\lambda }
2、兩個獨立且服從泊松分佈的隨機變量 ,其和仍然服從泊松分佈。更精確地說,若
X
∼
P
o
i
s
s
o
n
(
λ
1
)
{\displaystyle X\sim Poisson(\lambda _{1})}
且
Y
∼
P
o
i
s
s
o
n
(
λ
2
)
{\displaystyle Y\sim Poisson(\lambda _{2})}
,則
X
+
Y
∼
P
o
i
s
s
o
n
(
λ
1
+
λ
2
)
{\displaystyle X+Y\sim Poisson(\lambda _{1}+\lambda _{2})}
。反過來若兩個獨立隨機變量的和服從泊松分佈,則這兩個隨機變量經平移後皆服從泊松分佈(Raikov定理 )。
3、其矩母函數 為:
M
X
(
t
)
=
E
[
e
t
X
]
=
∑
x
=
0
∞
e
t
x
e
−
λ
λ
x
x
!
=
e
−
λ
∑
x
=
0
∞
(
e
t
λ
)
x
x
!
=
e
λ
(
e
t
−
1
)
{\displaystyle M_{X}(t)=E[e^{tX}]=\sum _{x=0}^{\infty }e^{tx}{\frac {e^{-\lambda }\lambda ^{x}}{x!}}=e^{-\lambda }\sum _{x=0}^{\infty }{\frac {({e^{t}}\lambda )^{x}}{x!}}=e^{{\lambda }(e^{t}-1)}}
期望值:(倒數第三至第二是使用泰勒展開式 )
E
(
X
)
=
∑
i
=
0
∞
i
P
(
X
=
i
)
=
∑
i
=
1
∞
i
e
−
λ
λ
i
i
!
=
λ
e
−
λ
∑
i
=
1
∞
λ
i
−
1
(
i
−
1
)
!
=
λ
e
−
λ
∑
i
=
0
∞
λ
i
i
!
=
λ
e
−
λ
e
λ
=
λ
{\displaystyle {\begin{aligned}\mathrm {E} (X)&=\sum _{i=0}^{\infty }\displaystyle iP(X=i)\\&=\sum _{i=1}^{\infty }\displaystyle i{e^{-\lambda }\lambda ^{i} \over i!}\\&=\lambda e^{-\lambda }\sum _{i=1}^{\infty }\displaystyle {\lambda ^{i-1} \over (i-1)!}\\&=\lambda e^{-\lambda }\sum _{i=0}^{\infty }\displaystyle {\lambda ^{i} \over i!}\\&=\lambda e^{-\lambda }e^{\lambda }\\&=\lambda \end{aligned}}}
E
(
X
2
)
=
∑
i
=
0
∞
i
2
P
(
X
=
i
)
=
∑
i
=
1
∞
i
2
e
−
λ
λ
i
i
!
=
λ
e
−
λ
∑
i
=
1
∞
i
λ
i
−
1
(
i
−
1
)
!
=
λ
e
−
λ
∑
i
=
1
∞
1
(
i
−
1
)
!
d
d
λ
(
λ
i
)
=
λ
e
−
λ
d
d
λ
[
∑
i
=
1
∞
λ
i
(
i
−
1
)
!
]
=
λ
e
−
λ
d
d
λ
[
λ
∑
i
=
1
∞
λ
i
−
1
(
i
−
1
)
!
]
=
λ
e
−
λ
d
d
λ
(
λ
e
λ
)
=
λ
e
−
λ
(
e
λ
+
λ
e
λ
)
=
λ
+
λ
2
{\displaystyle {\begin{aligned}\mathrm {E} (X^{2})&=\sum _{i=0}^{\infty }\displaystyle i^{2}P(X=i)\\&=\sum _{i=1}^{\infty }\displaystyle i^{2}{e^{-\lambda }\lambda ^{i} \over i!}\\&=\lambda e^{-\lambda }\sum _{i=1}^{\infty }\displaystyle {i\lambda ^{i-1} \over (i-1)!}\\&=\lambda e^{-\lambda }\sum _{i=1}^{\infty }\displaystyle {1 \over (i-1)!}{d \over d\lambda }(\lambda ^{i})\\&=\lambda e^{-\lambda }{d \over d\lambda }\left[\sum _{i=1}^{\infty }\displaystyle {\lambda ^{i} \over (i-1)!}\right]\\&=\lambda e^{-\lambda }{d \over d\lambda }\left[\lambda \sum _{i=1}^{\infty }\displaystyle {\lambda ^{i-1} \over (i-1)!}\right]\\&=\lambda e^{-\lambda }{d \over d\lambda }(\lambda e^{\lambda })=\lambda e^{-\lambda }(e^{\lambda }+\lambda e^{\lambda })=\lambda +\lambda ^{2}\end{aligned}}}
我們可以得到:
V
a
r
(
X
)
=
(
λ
+
λ
2
)
−
λ
2
=
λ
{\displaystyle Var(X)=(\lambda +\lambda ^{2})-\lambda ^{2}=\lambda }
如同性質:
E
(
X
)
=
V
a
r
(
X
)
=
λ
{\displaystyle E(X)=Var(X)=\lambda }
、
σ
X
=
λ
{\displaystyle \sigma _{X}={\sqrt {\lambda }}}
相互獨立的泊松分佈隨機變量之和仍服從泊松分佈:
X
∼
P
o
i
s
s
o
n
(
λ
1
)
,
Y
∼
P
o
i
s
s
o
n
(
λ
2
)
.
{\displaystyle X\sim Poisson(\lambda _{1}),Y\sim Poisson(\lambda _{2}).}
P
(
X
=
k
1
)
=
λ
1
k
1
e
−
λ
1
k
1
!
,
P
(
Y
=
k
2
)
=
λ
2
k
2
e
−
λ
2
k
2
!
.
{\displaystyle P(X=k_{1})={\dfrac {\lambda _{1}^{k_{1}}e^{-\lambda _{1}}}{k_{1}!}},P(Y=k_{2})={\dfrac {\lambda _{2}^{k_{2}}e^{-\lambda _{2}}}{k_{2}!}}.}
P
(
X
+
Y
=
k
)
=
∑
i
=
0
k
P
(
X
=
i
)
P
(
Y
=
k
−
i
)
=
∑
i
=
0
k
λ
1
i
λ
2
k
−
i
e
−
(
λ
1
+
λ
2
)
i
!
(
k
−
i
)
!
=
e
−
(
λ
1
+
λ
2
)
k
!
∑
i
=
0
k
C
k
i
λ
1
i
λ
2
k
−
i
=
e
−
(
λ
1
+
λ
2
)
(
λ
1
+
λ
2
)
k
k
!
{\displaystyle {\begin{aligned}P(X+Y=k)&=\sum _{i=0}^{k}P(X=i)P(Y=k-i)\\&=\sum _{i=0}^{k}{\frac {\lambda _{1}^{i}\lambda _{2}^{k-i}e^{-(\lambda _{1}+\lambda _{2})}}{i!(k-i)!}}\\&={\frac {e^{-(\lambda _{1}+\lambda _{2})}}{k!}}\sum _{i=0}^{k}C_{k}^{i}\lambda _{1}^{i}\lambda _{2}^{k-i}\\&={\frac {e^{-(\lambda _{1}+\lambda _{2})}(\lambda _{1}+\lambda _{2})^{k}}{k!}}\end{aligned}}}
X
+
Y
∼
P
o
i
s
s
o
n
(
λ
1
+
λ
2
)
{\displaystyle X+Y\sim Poisson(\lambda _{1}+\lambda _{2})}
在二項分佈 的伯努利試驗 中,如果試驗次數
n
{\displaystyle n}
很大,二項分佈的機率
p
{\displaystyle p}
很小,且乘積
λ
=
n
p
{\displaystyle \lambda =np}
比較適中,則事件出現的次數的機率可以用泊松分佈來逼近。事實上,二項分佈可以看作泊松分佈在離散時間上的對應物。
證明如下。首先,回顧自然對數
e
{\displaystyle e}
的定義:
lim
n
→
∞
(
1
−
λ
n
)
n
=
e
−
λ
,
{\displaystyle \lim _{n\to \infty }\left(1-{\lambda \over n}\right)^{n}=e^{-\lambda },}
二項分佈的定義:
P
(
X
=
k
)
=
(
n
k
)
p
k
(
1
−
p
)
n
−
k
{\displaystyle P(X=k)={n \choose k}p^{k}(1-p)^{n-k}}
。
如果令
p
=
λ
n
{\displaystyle p={\frac {\lambda }{n}}}
,
n
{\displaystyle n}
趨於無窮時
P
{\displaystyle P}
的極限:
lim
n
→
∞
P
(
X
=
k
)
=
lim
n
→
∞
(
n
k
)
p
k
(
1
−
p
)
n
−
k
=
lim
n
→
∞
n
!
(
n
−
k
)
!
k
!
(
λ
n
)
k
(
1
−
λ
n
)
n
−
k
=
lim
n
→
∞
[
n
!
n
k
(
n
−
k
)
!
]
⏟
F
(
λ
k
k
!
)
(
1
−
λ
n
)
n
⏟
→
exp
(
−
λ
)
(
1
−
λ
n
)
−
k
⏟
→
1
=
lim
n
→
∞
[
(
1
−
1
n
)
(
1
−
2
n
)
…
(
1
−
k
−
1
n
)
]
⏟
→
1
(
λ
k
k
!
)
(
1
−
λ
n
)
n
⏟
→
exp
(
−
λ
)
(
1
−
λ
n
)
−
k
⏟
→
1
=
(
λ
k
k
!
)
exp
(
−
λ
)
{\displaystyle {\begin{aligned}\lim _{n\to \infty }P(X=k)&=\lim _{n\to \infty }{n \choose k}p^{k}(1-p)^{n-k}\\&=\lim _{n\to \infty }{n! \over (n-k)!k!}\left({\lambda \over n}\right)^{k}\left(1-{\lambda \over n}\right)^{n-k}\\&=\lim _{n\to \infty }\underbrace {\left[{\frac {n!}{n^{k}\left(n-k\right)!}}\right]} _{F}\left({\frac {\lambda ^{k}}{k!}}\right)\underbrace {\left(1-{\frac {\lambda }{n}}\right)^{n}} _{\to \exp \left(-\lambda \right)}\underbrace {\left(1-{\frac {\lambda }{n}}\right)^{-k}} _{\to 1}\\&=\lim _{n\to \infty }\underbrace {\left[\left(1-{\frac {1}{n}}\right)\left(1-{\frac {2}{n}}\right)\ldots \left(1-{\frac {k-1}{n}}\right)\right]} _{\to 1}\left({\frac {\lambda ^{k}}{k!}}\right)\underbrace {\left(1-{\frac {\lambda }{n}}\right)^{n}} _{\to \exp \left(-\lambda \right)}\underbrace {\left(1-{\frac {\lambda }{n}}\right)^{-k}} _{\to 1}\\&=\left({\frac {\lambda ^{k}}{k!}}\right)\exp \left(-\lambda \right)\end{aligned}}}
給定
n
{\displaystyle n}
個樣本值
k
i
{\displaystyle k_{i}}
,希望得到從中推測出總體的泊松分佈參數
λ
{\displaystyle \lambda }
的估計。為計算最大似然估計 值,列出對數似然函數:
L
(
λ
)
=
ln
∏
i
=
1
n
f
(
k
i
∣
λ
)
=
∑
i
=
1
n
ln
(
e
−
λ
λ
k
i
k
i
!
)
=
−
n
λ
+
(
∑
i
=
1
n
k
i
)
ln
(
λ
)
−
∑
i
=
1
n
ln
(
k
i
!
)
.
{\displaystyle {\begin{aligned}L(\lambda )&=\ln \prod _{i=1}^{n}f(k_{i}\mid \lambda )\\&=\sum _{i=1}^{n}\ln \!\left({\frac {e^{-\lambda }\lambda ^{k_{i}}}{k_{i}!}}\right)\\&=-n\lambda +\left(\sum _{i=1}^{n}k_{i}\right)\ln(\lambda )-\sum _{i=1}^{n}\ln(k_{i}!).\end{aligned}}}
d
d
λ
L
(
λ
)
=
0
⟺
−
n
+
(
∑
i
=
1
n
k
i
)
1
λ
=
0.
{\displaystyle {\frac {\mathrm {d} }{\mathrm {d} \lambda }}L(\lambda )=0\iff -n+\left(\sum _{i=1}^{n}k_{i}\right){\frac {1}{\lambda }}=0.\!}
解得λ 從而得到一個駐點 (stationary point):
λ
^
M
L
E
=
1
n
∑
i
=
1
n
k
i
.
{\displaystyle {\widehat {\lambda }}_{\mathrm {MLE} }={\frac {1}{n}}\sum _{i=1}^{n}k_{i}.\!}
檢查函數
L
{\displaystyle L}
的二階導數,發現對所有的
λ
{\displaystyle \lambda }
與
k
i
{\displaystyle k_{i}}
大於零的情況二階導數都為負。因此求得的駐點是對數似然函數
L
{\displaystyle L}
的極大值點:
∂
2
L
∂
λ
2
=
∑
i
=
1
n
−
λ
−
2
k
i
{\displaystyle {\frac {\partial ^{2}L}{\partial \lambda ^{2}}}=\sum _{i=1}^{n}-\lambda ^{-2}k_{i}}
對某公共汽車站的客流做調查,統計了某天上午10:30到11:47來到候車的乘客情況。假定來到候車的乘客各批(每批可以是1人也可以是多人)是互相獨立發生的。觀察每20秒區間來到候車的乘客批次,共觀察77分鐘*3=231次,共得到230個觀察記錄。其中來到0批、1批、2批、3批、4批及4批以上的觀察記錄分別是100次、81次、34次、9次、6次。使用極大似真估計(MLE),得到
λ
{\displaystyle \lambda }
的估計為
81
×
1
+
34
×
2
+
9
×
3
+
6
×
4
230
≈
0.87
{\displaystyle {\frac {81\times 1+34\times 2+9\times 3+6\times 4}{230}}\approx 0.87}
。
一個用來生成隨機泊松分佈的數字(偽隨機數抽樣)的簡單算法,已經由高德納 給出(見下文參考):
algorithm poisson random number (Knuth) :
init :
Let L ← e −λ , k ← 0 and p ← 1.
do :
k ← k + 1.
Generate uniform random number u in [0,1] and let p ← p×u.
while p > L.
return k − 1.
儘管簡單,但複雜度是線性的,在返回的值
k
{\displaystyle k}
,平均是
λ
{\displaystyle \lambda }
。還有許多其他算法來克服這一點。有些人由Ahrens和Dieter給出,請參閱下面的參考資料。同樣,對於較大的
λ
{\displaystyle \lambda }
值,
e
−
λ
{\displaystyle e^{-\lambda }}
可能導致數值穩定性問題。對於較大
λ
{\displaystyle \lambda }
值的一種解決方案是拒絕採樣 ,另一種是採用泊松分佈的高斯近似。
對於很小的
λ
{\displaystyle \lambda }
值,逆轉換取樣簡單而且高效,每個樣本只需要一個均勻隨機數u。直到有超過
u
{\displaystyle u}
的樣本,才需要檢查累積機率。
algorithm Poisson generator based upon the inversion by sequential search :[ 1]
init :
Let x ← 0, p ← e −λ , s ← p.
Generate uniform random number u in [0,1].
do :
x ← x + 1.
p ← p * λ / x.
s ← s + p.
while u > s.
return x.
Guerriero V. Power Law Distribution: Method of Multi-scale Inferential Statistics . Journal of Modern Mathematics Frontier (JMMF). 2012, 1 : 21–28 [2017-10-30 ] . (原始內容 存檔於2018-02-21).
Joachim H. Ahrens, Ulrich Dieter. Computer Methods for Sampling from Gamma, Beta, Poisson and Binomial Distributions. Computing. 1974, 12 (3): 223–246. doi:10.1007/BF02293108 .
Joachim H. Ahrens, Ulrich Dieter. Computer Generation of Poisson Deviates . ACM Transactions on Mathematical Software. 1982, 8 (2): 163–179. doi:10.1145/355993.355997 .
Ronald J. Evans, J. Boersma, N. M. Blachman, A. A. Jagers. The Entropy of a Poisson Distribution: Problem 87-6. SIAM Review. 1988, 30 (2): 314–317. doi:10.1137/1030059 .
Donald E. Knuth. Seminumerical Algorithms. The Art of Computer Programming. Volume 2. Addison Wesley . 1969.