奇异值分解

本页使用了标题或全文手工转换
维基百科,自由的百科全书
线性代数

向量 · 向量空间 · 基底  · 行列式  · 矩阵

奇异值分解(英语:Singular value decomposition,缩写:SVD)是线性代数中一种重要的矩阵分解,在信号处理统计学等领域有重要应用。奇异值分解在某些方面与对称矩阵厄米矩阵基于特征向量对角化类似。然而这两种矩阵分解尽管有其相关性,但还是有明显的不同。对称阵特征向量分解的基础是谱分析,而奇异值分解则是谱分析理论在任意矩阵上的推广。

理论描述[编辑]

假设M是一个m×n矩阵,其中的元素全部属于K,也就是实数域或复数域。如此则存在一个分解使得

其中Um×m酉矩阵;Σ是m×n阶非负实数对角矩阵;而V*,即V共轭转置,是n×n阶酉矩阵。这样的分解就称作M奇异值分解。Σ对角线上的元素Σi,i即为M奇异值

常见的做法是将奇异值由大而小排列。如此Σ便能由M唯一确定了。(虽然UV仍然不能确定。)

直观的解释[编辑]

在矩阵M的奇异值分解中

  • V的列(columns)组成一套对正交“输入”或“分析”的基向量。这些向量是特征向量
  • U的列(columns)组成一套对正交“输出”的基向量。这些向量是特征向量
  • Σ对角线上的元素是奇异值,可视为是在输入与输出间进行的纯量的"膨胀控制"。这些是特征值的非负平方根,并与UV的行向量相对应。

奇异值和奇异向量,以及他们与奇异值分解的关系[编辑]

一个非负实数σ是M的一个奇异值仅当存在Km的单位向量uKn的单位向量v如下:

其中向量uv分别为σ的左奇异向量和右奇异向量。

对于任意的奇异值分解

矩阵Σ的对角线上的元素等于M的奇异值. UV的列分别是奇异值中的左、右奇异向量。因此,上述定理表明:

  • 一个m×n的矩阵至多有p = min(m,n)个不同的奇异值;
  • 总能在Km中找到由M的左奇异向量组成的一组正交基U,;
  • 总能在Kn找到由M的右奇异向量组成的一组正交基V,。

如果对于一个奇异值,可以找到两组线性无关的左(右)奇异向量,则该奇异值称为简并的(或退化的)。

非退化的奇异值在最多相差一个相位因子(若讨论限定在实数域内,则最多相差一个正负号)的意义下具有唯一的左、右奇异向量。因此,如果M的所有奇异值都是非退化且非零,则除去一个可以同时乘在上的任意的相位因子外,的奇异值分解唯一。

根据定义,退化的奇异值具有不唯一的奇异向量。因为,如果u1u2为奇异值σ的两个左奇异向量,则它们的任意归一化线性组合也是奇异值σ一个左奇异向量,右奇异向量也具有类似的性质。因此,如果M具有退化的奇异值,则它的奇异值分解是不唯一的。

例子[编辑]

观察一个4×5的矩阵

M矩阵的奇异值分解如下

注意矩阵的所有非对角元为0。矩阵都是酉矩阵,它们乘上各自的共轭转置都得到单位矩阵。如下所示。在这个例子中,由于都是实矩阵,故它们都是正交矩阵

由于有一个对角元是零,故这个奇异值分解值不是唯一的。例如,选择使得

能得到的另一个奇异值分解。

与特征值分解的联系[编辑]

奇异值分解能够用于任意矩阵,而特征分解只能适用于特定类型的方阵,故奇异值分解的适用范围更广。不过,这两个分解之间是有关联的。给定一个M的奇异值分解,根据上面的论述,两者的关系式如下:

关系式的右边描述了关系式左边的特征值分解。于是:

  • 的列向量(右奇异向量)是特征向量
  • 的列向量(左奇异向量)是的特征向量。
  • 的非零对角元(非零奇异值)是或者的非零特征值的平方根。

特殊情况下,当M是一个正规矩阵(因而必须是方阵)根据谱定理M可以被一组特征向量酉对角化,所以它可以表为:

其中U为一个酉矩阵,D为一个对角阵。如果M半正定的,的分解也是一个奇异值分解。

然而,一般矩阵的特征分解跟奇异值分解不同。特征分解如下:

其中U是不需要是酉的,D也不需要是半正定的。而奇异值分解如下:

其中是对角半正定矩阵,UV是酉矩阵,两者除了通过矩阵M没有必然的联系。

几何意义[编辑]

因为UV都是酉的,我们知道U的列向量 u1,...,um 组成了Km空间的一组标准正交基。同样,V的列向量v1,...,vn也组成了Kn空间的一组标准正交基(根据向量空间的标准点积法则)。

矩阵代表从的一个线性映射。通过这些标准正交基,这个变换可以用很简单的方式进行描述:,其中中的第i个对角元。当时,

这样,SVD分解的几何意义就可以做如下的归纳:对于每一个线性映射的奇异值分解在原空间与像空间中分别找到一组标准正交基,使得的第个基向量映射为的第基向量的非负倍数,并将中余下的基向量映射为零向量。换句话说,线性变换在这两组选定的基上的矩阵表示为所有对角元均为非负数的对角矩阵。

应用[编辑]

求广义逆阵(伪逆)[编辑]

奇异值分解可以被用来计算矩阵的广义逆阵(伪逆)。若矩阵M的奇异值分解为,那么M的伪逆为

其中的伪逆,是将主对角线上每个非零元素都求倒数之后再转置得到的。求伪逆通常可以用来求解最小二乘法问题。

列空间、零空间和秩[编辑]

奇异值分解的另一个应用是给出矩阵的列空间零空间的表示。对角矩阵的非零对角元素的个数对应于矩阵的秩。与零奇异值对应的右奇异向量生成矩阵的零空间,与非零奇异值对应的左奇异向量则生成矩阵的列空间。在线性代数数值计算中奇异值分解一般用于确定矩阵的有效秩,这是因为,由于舍入误差,秩亏矩阵的零奇异值可能会表现为很接近零的非零值。

矩阵近似值[编辑]

奇异值分解在统计中的主要应用为主成分分析(PCA)。数据集的特征值(在SVD中用奇异值表征)按照重要性排列,降维的过程就是舍弃不重要的特征向量的过程,而剩下的特征向量张成空间为降维后的空间。

几种程式语言中计算SVD的函式范例[编辑]

  • Mathematica:
{U, Σ, V}=SingularValueDecomposition[a]
  • MATLAB:
[b c d]=svd(x)
  • OpenCV:
void cvSVD( CvArr* A, CvArr* W, CvArr* U=NULL, CvArr* V=NULL, int flags=0 )
U,s,Vh = scipy.linalg.svd(A)
  • R:
S=svd(x)

历史[编辑]

参见[编辑]

外部链接[编辑]

参考文献[编辑]

  • Demmel, J. and Kahan, W. (1990). Computing Small Singular Values of Bidiagonal Matrices With Guaranteed High Relative Accuracy. SIAM J. Sci. Statist. Comput., 11 (5), 873-912.
  • Golub, G. H. and Van Loan, C. F. (1996). "Matrix Computations". 3rd ed., Johns Hopkins University Press, Baltimore. ISBN 0-8018-5414-8.
  • Halldor, Bjornsson and Venegas, Silvia A. (1997). "A manual for EOF and SVD analyses of climate data"页面存档备份,存于互联网档案馆). McGill University, CCGCR Report No. 97-1, Montréal, Québec, 52pp.
  • Hansen, P. C. (1987). The truncated SVD as a method for regularization. BIT, 27, 534-553.
  • Horn, Roger A. and Johnson, Charles R (1985). "Matrix Analysis". Section 7.3. Cambridge University Press. ISBN 0-521-38632-2.
  • Horn, Roger A. and Johnson, Charles R (1991). Topics in Matrix Analysis, Chapter 3. Cambridge University Press. ISBN 0-521-46713-6.
  • Strang G (1998). "Introduction to Linear Algebra". Section 6.7. 3rd ed., Wellesley-Cambridge Press. ISBN 0-9614088-5-5.