累积量

维基百科,自由的百科全书
跳转至: 导航搜索

概率论统计学中,一个随机变量累积量是指一系列能够提供和一样的信息的量。累积量和随机变量的矩密切相关。如果两个随机变量的各阶矩都一样,那么它们的累积量也都一样,反之亦然。在某些理论推导中,使用累积量更加方便。

简介[编辑]

一个随机变量Xn阶累积量\kappa_n可以用所谓的累积生成函数来定义。

\sum_{n=1}^\infty \kappa_n \frac{t^n}{n!}=\log \mathbb{E} e^{t X}=:g(t).

如果使用X(没有中心化)的n阶矩\mu_n^{\prime} =  \mathbb{E}(X^n) 矩生成函数则可以定义:

 \mathbb{E} (e^{tX}) = 1 + \sum_{m=1}^\infty \mu'_m \frac{t^m}{m!}=e^{g(t)}.

使用形式幂级数定义的对数函数

\begin{align}g(t) &= \log(\operatorname{E}(e^{tX})) = - \sum_{n=1}^\infty \frac{1}{n}\left(1-\operatorname{E}(e^{tX})\right)^n = - \sum_{n=1}^\infty \frac{1}{n}\left(-\sum_{m=1}^\infty \mu'_m \frac{t^m}{m!}\right)^n \\
&= \mu'_1 t
+ \left(\mu'_2 - {\mu'_1}^2\right) \frac{t^2}{2!}
+ \left(\mu'_3 - 3\mu'_2\mu'_1 + 2{\mu'_1}^3\right) \frac{t^3}{3!}
+ \cdots .
\end{align}

随机变量的累积量和随机变量的矩密切相关。比如说,随机变量X有期望\scriptstyle \mu =  \mathbb{E}(X) 方差 \scriptstyle \sigma^2 =  \mathbb{E}\left(|X - \mu |^2\right) ,那么它们也是前两阶的累积量: \scriptstyle \mu =  \kappa_1 , \, \sigma^2 = \kappa_2

对于一般的情况,累积量可以通过对生成函数\scriptstyle g(t) (在0处)进行求导得到。也就是说,累积量是\scriptstyle g(t) 麦克劳林级数的系数。

\begin{align} \kappa_1 &= g'(0) = \mu'_1 = \mu, \\
                     \kappa_2 &= g''(0) = \mu'_2 - {\mu'_1}^2 = \sigma^2, \\
                              &{} \  \  \vdots \\
                     \kappa_n &= g^{(n)}(0), \\
                              &{} \  \  \vdots
       \end{align}

要注意有时候n阶矩会用角括号来表示:\mu'_n = \operatorname{E}(X^n)=\langle X^n \rangle \, ,累积量则用下标c的角括号表示:\kappa_n = \langle X^n\rangle_c. \,

有些作者[1][2]偏向于定义累积生成函数为随机变量的特征函数诱导的自然对数。这种定义下的累积生成函数也被称为随机变量的第二类特征函数[3][4]

h(t)=\sum_{n=1}^\infty \kappa_n \frac{(it)^n}{n!}=\log(\operatorname{E} (e^{i t X}))=\mu it - \sigma^2 \frac{ t^2}{2} + \cdots.\,

统计数学中的应用[编辑]

使用累积量的一个优势是它对应的生成函数是加性函数。比如说对两个独立的随机变量XY



\begin{align}

g_{X+Y}(t) & =\log(\operatorname{E}(e^{t(X+Y)})) = \log(\operatorname{E}(e^{tX})\operatorname{E}(e^{tY})) \\

& = \log(\operatorname{E}(e^{tX})) + \log(\operatorname{E}(e^{tY})) = g_X(t) + g_Y(t).

\end{align}

它们的和的累积量是各自的累积量的和。

相關條目[编辑]

参考来源[编辑]

  1. ^ Kendall, M.G., Stuart, A. (1969) The Advanced Theory of Statistics, Volume 1 (3rd Edition). Griffin, London. (Section 3.12)
  2. ^ Lukacs, E. (1970) Characteristic Functions (2nd Edition). Griffin, London. (Page 27)
  3. ^ Lukacs, E. (1970) Characteristic Functions (2nd Edition). Griffin, London. (Section 2.4)
  4. ^ Aapo Hyvarinen, Juha Karhunen, and Erkki Oja (2001) Independent Component Analysis, John Wiley & Sons. (Section 2.7.2)

外部链接[编辑]