本頁使用了標題或全文手工轉換

卜瓦松分佈

維基百科,自由的百科全書
前往: 導覽搜尋
卜瓦松分佈
Plot of the Poisson PMF
橫軸是索引 k,發生次數。該函數只定義在 k 為整數的時候。連接線是只為了指導視覺。
機率質量函數
Plot of the Poisson CDF
橫軸是索引 k,發生次數。CDF 在整數 k 處不連續,且在其他任何地方都是水平的,因為服從卜瓦松分佈的變數只針對整數值。
累積分佈函數
參數 λ > 0 (實數)
支撐集 k ∈ { 0, 1, 2, 3, ... }
機率质量函數 \frac{\lambda^k}{k!} e^{-\lambda}
累積分佈函數

\frac{\Gamma(\lfloor k+1\rfloor, \lambda)}{\lfloor k\rfloor !},或e^{-\lambda} \sum_{i=0}^{\lfloor k\rfloor} \frac{\lambda^i}{i!}\ ,或Q(\lfloor k+1\rfloor,\lambda)

(對於k\ge 0,其中\Gamma(x, y)不完全Γ函數\lfloor k\rfloor高斯函數,Q 是規則化Γ函數)
期望值 \lambda
中位數 \approx\lfloor\lambda+1/3-0.02/\lambda\rfloor
眾數 \lceil\lambda\rceil - 1, \lfloor\lambda\rfloor
變異數 \lambda
偏度 \lambda^{-1/2}
峰度 \lambda^{-1}
信息熵

\lambda[1 - \log(\lambda)] + e^{-\lambda}\sum_{k=0}^\infty \frac{\lambda^k\log(k!)}{k!} (for large \lambda)

\frac{1}{2}\log(2 \pi e \lambda) - \frac{1}{12 \lambda} - \frac{1}{24 \lambda^2} -
\qquad \frac{19}{360 \lambda^3} + O\left(\frac{1}{\lambda^4}\right)
動差生成函數 \exp(\lambda (e^{t} - 1))
特性函數 \exp(\lambda (e^{it} - 1))

Poisson分佈(法語:loi de Poisson,英語:Poisson distribution),譯名有泊松分佈普阿松分佈卜瓦松分佈布瓦松分佈布阿松分佈波以松分佈卜氏分配等,又稱卜瓦松小數法則(Poisson law of small numbers),是一種統計機率學裡常見到的離散機率分佈,由法國數學家西莫恩·德尼·卜瓦松(Siméon-Denis Poisson)在1838年時發表。

卜瓦松分佈適合於描述單位時間內隨機事件發生的次數的機率分佈。如某一服務設施在一定時間內受到的服務請求的次數,電話交換機接到呼叫的次數、汽車站台的候客人數、機器出現的故障數、自然災害發生的次數、DNA序列的變異數、放射性原子核的衰變數等等。

卜瓦松分佈的機率質量函數為:

P(X=k)=\frac{e^{-\lambda}\lambda^k}{k!}

卜瓦松分佈的參數λ是單位時間(或單位面積)內隨機事件的平均發生率。

記號[編輯]

\mathit{X}服從參數為\mathit{\lambda}的卜瓦松分佈,記為X \sim \pi(\lambda),或記為X \sim P(\lambda).

性質[編輯]

1.服從卜瓦松分佈的隨機變數,其數學期望變異數相等,同為參數λ: E(X)=V(X)=λ

2.兩個獨立且服從卜瓦松分佈的隨機變數,其和仍然服從卜瓦松分佈 (更精確地說:若X ~ Poisson(λ1)且Y ~ Poisson(λ2),則 X+Y ~Poisson(λ1+λ2))

M_X(t)=E[e^{tX}]=\sum_{x=0}^\infty e^{tX}\frac{e^{-\lambda}\lambda^x}{x!}=e^{-\lambda}\sum_{x=0}^\infty\frac{({e^t}\lambda)^x}{x!}=e^{-\lambda}e^{\lambda e^t}=e^{{\lambda}(e^t-1)}

卜瓦松分佈的來源(卜瓦松小數定律)[編輯]

二項分佈伯努利試驗中,如果試驗次數n很大,二項分佈的機率p很小,且乘積λ= n p比較適中,則事件出現的次數的機率可以用卜瓦松分佈來逼近。事實上,二項分佈可以看作卜瓦松分佈在離散時間上的對應物。

證明如下。首先,回顧e的定義:

\lim_{n\to\infty}\left(1-{\lambda \over n}\right)^n=e^{-\lambda},

二項分佈的定義:

P(X=k)={n \choose k} p^k (1-p)^{n-k}.

如果令p = \lambda/n, n趨於無窮時P的極限:


\begin{align}

\lim_{n\to\infty} P(X=k)&=\lim_{n\to\infty}{n \choose k} p^k (1-p)^{n-k} \\
 &=\lim_{n\to\infty}{n! \over (n-k)!k!} \left({\lambda \over n}\right)^k \left(1-{\lambda\over n}\right)^{n-k}\\
&=\lim_{n\to\infty}
\underbrace{\left[\frac{n!}{n^k\left(n-k\right)!}\right]}_F
\left(\frac{\lambda^k}{k!}\right)
\underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)}
\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1} \\
&= \lim_{n\to\infty}
\underbrace{\left[ \left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right) \ldots \left(1-\frac{k-1}{n}\right)  \right]}_{\to 1}
\left(\frac{\lambda^k}{k!}\right)
\underbrace{\left(1-\frac{\lambda}{n}\right)^n}_{\to\exp\left(-\lambda\right)}
\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to 1}      \\
&= \left(\frac{\lambda^k}{k!}\right)\exp\left(-\lambda\right)
\end{align}

最大似然估計[編輯]

給定n個樣本值ki,希望得到從中推測出總體的卜瓦松分佈參數λ的估計。為計算最大似然估計值, 列出對數似然函數:


\begin{align}
L(\lambda) & = \log \prod_{i=1}^n f(k_i \mid \lambda) \\
& = \sum_{i=1}^n \log\!\left(\frac{e^{-\lambda}\lambda^{k_i}}{k_i!}\right) \\
& = -n\lambda + \left(\sum_{i=1}^n k_i\right) \log(\lambda) - \sum_{i=1}^n \log(k_i!). \end{align}

對函數L取相對於λ的導數並令其等於零:

\frac{\mathrm{d}}{\mathrm{d}\lambda} L(\lambda) = 0
\iff -n + \left(\sum_{i=1}^n k_i\right) \frac{1}{\lambda} = 0. \!

解得λ從而得到一個駐點(stationary point):

\widehat{\lambda}_\mathrm{MLE}=\frac{1}{n}\sum_{i=1}^n k_i. \!

檢查函數L的二階導數,發現對所有的λ 與ki大於零的情況二階導數都為負。因此求得的駐點是對數似然函數L的極大值點:

\frac{\partial^2 L}{\partial \lambda^2} =  \sum_{i=1}^n -\lambda^{-2} k_i

例子[編輯]

對某公共汽車站的客流做調查,統計了某天上午10:30到11:47來到候車的乘客情況。假定來到候車的乘客各批(每批可以是1人也可以是多人)是互相獨立發生的。觀察每20秒區間來到候車的乘客批次,共觀察77分鐘*3=231次,共得到230個觀察記錄。其中來到0批、1批、2批、3批、4批及4批以上的觀察記錄分別是100個、81個、34個、9個、6個。使用極大似真估計(MLE),得到\lambda的估計為200/231=0.8658。

生成卜瓦松分佈的隨機變數[編輯]

一個用來生成隨機卜瓦松分佈的數字( 偽隨機數抽樣 )的簡單演算法,已經由高德納給出(見下文參考):

algorithm poisson random number (Knuth):
    init:
         Let L ← e−λ, k ← 0 and p ← 1.
    do:
         k ← k + 1.
         Generate uniform random number u in [0,1] and let p ← p × u.
    while p > L.
    return k − 1.

儘管簡單,但複雜度是線性的,在返回的值k,平均是λ。還有許多其他演算法來克服這一點。有些人由Ahrens和Dieter給出,請參閱下面的參考資料。同樣,對於較大的λ值,e可能導致數值穩定性問題。對於較大λ值的一種解決方案是拒絕採樣,另一種是採用卜瓦松分佈的高斯近似。

對於很小的λ值,逆變換取樣簡單而且高效,每個樣本只需要一個均勻隨機數u。直到有超過u的樣本,才需要檢查累積機率。

algorithm Poisson generator based upon the inversion by sequential search:[1]
    init:
         Let x ← 0, p ← e−λ, s ← p.
         Generate uniform random number u in [0,1].
    do:
         x ← x + 1.
         p ← p * λ / x.
         s ← s + p.
    while u > s.
    return x.

參見[編輯]

注釋[編輯]

  1. ^ Luc Devroye, Non-Uniform Random Variate Generation (Springer-Verlag, New York, 1986), chapter 10, page 505 http://luc.devroye.org/rnbookindex.html

參考文獻[編輯]

  • Joachim H. Ahrens, Ulrich Dieter. Computer Methods for Sampling from Gamma, Beta, Poisson and Binomial Distributions. Computing. 1974, 12 (3): 223–246. doi:10.1007/BF02293108. 
  • Joachim H. Ahrens, Ulrich Dieter. Computer Generation of Poisson Deviates. ACM Transactions on Mathematical Software. 1982, 8 (2): 163–179. doi:10.1145/355993.355997. 
  • Ronald J. Evans, J. Boersma, N. M. Blachman, A. A. Jagers. The Entropy of a Poisson Distribution: Problem 87-6. SIAM Review. 1988, 30 (2): 314–317. doi:10.1137/1030059. 
  • Donald E. Knuth. Seminumerical Algorithms. The Art of Computer Programming, Volume 2. Addison Wesley. 1969.