压缩感知还原算法
此条目包含过多行话或专业术语,可能需要简化或提出进一步解释。 (2017年12月19日) |
压缩感知(Compressive Sensing, CS)是一种新兴的取样方法,相比长久以来被使用的奈奎斯特取样定理(Nyquist Sampling Theorem),能更高效的方式采样信号。压缩感知最主要利用信号的稀疏性来寻找欠定线性系统的稀疏解,因此能从较少的取样样本中还原信号。近几年有许多文献提出了许多有效的算法,大多是透过迭代的方式找到系数并还原信号,相较同时找到最大系数的方式,能更精确的还原信号。
还原算法
[编辑]对于压缩感知中的稀疏信号还原有很多不同类型的算法,这些算法大致可以被分为六类,以下将详细叙述各类型算法的特色[1]。
凸松弛(Convex Relaxation)
[编辑]这类算法最主要透过线性规划方式求解凸优化的问题来对信号进行还原。 虽然要精确地还原信号所需的测量数量很少,但是这些方法在计算上是较复杂的。主要代表的算法有基追踪(Basis Pursuit, BP)、抗噪基追踪(Basis Pursuit De-noising, BPDN)、最小角度回归(Least Angle Regression, LARS)。
基追踪优化公式:
抗噪基追踪优化公式:
贪婪迭代算法(Greedy Iterative Algorithm)
[编辑]这类算法主要是透过迭代的方式逐步找到答案来还原信号。这类型的算法在每次迭代中,以贪婪的方式选择传感矩阵中与做内积最大的列,也就是选出与传感矩阵中最相关的列,接着该列对的贡献将会从中被减去,并且对相减之后的结果进行迭代,直到识别出正确的列集合。相比之下,最小平方误差的方法则是在每次迭代中最小化误差。这类算法的优点在于运算复杂度低,还原速度快,常见的算法有正交匹配追踪(Orthogonal Matching Pursuit, OMP)、随机梯度追踪(Stochastic Gradient Pursuit,SGP)、正则化正交匹配追踪(Regularized OMP)、压缩采样匹配追踪(Compressive Sampling Matching Pursuit, CoSaMP)和子空间追踪(Subspace Pursuit,SP)。
正交匹配追踪(Orthogonal Matching Pursuit, OMP)
[编辑]-
正交匹配追踪(OMP)算法
一开始会有一个空集合,以及剩余的部分,每次迭代都会从找出一个A矩阵投影到剩余有最大值的位置,把这个位置加到之中,并从当中移除,最后再更新剩余。利用迭代的方式,不断地找出x向量当中最有可能非零的位置,直到达到算法停止条件。
随机梯度追踪(Stochastic Gradient Pursuit,SGP)
[编辑]可视为是正交匹配追踪的改良版,在面对噪声的环境下也能更好地还原。整体算法都与正交匹配追踪相同,除了用最小二乘法(least square,LS)那一项。
最小二乘法可以用零强制线性均衡(zero forcing linear equalization,ZFLE)来实现:
- ,n为噪声
但是零强制线性均衡的缺点可以直接从上式看出,会造成放大噪声的影响。为了解决噪声的问题,可以利用最小均方误差(minimum mean square error,MMSE)均衡器来最小化整体的误差
和零强制线性均衡相比,在反矩阵内部多增加了额外的项,可直接视为噪声项目。虽然最小均方误差方法的正交匹配追踪[2]更能够对抗噪声干扰,但是和并不适用压缩感知的众多应用上,所以并不能直接套用在压缩感知的还原算法上。
因为最小均方(least mean square,LMS)在不断地迭代后的平衡值会接近最小均方误差,因此随机梯度追踪利用最小均方来取代最小二乘法。最小均方的迭代将根据预估误差来调整support系数,而预估误差可表示为:
因此最小均方的梯度下降递归(gradient decent recursion)可以表示为:
- ,为step size
总结来说随机梯度追踪算法里面包含了两个迭代循环。一个大的迭代是由正交匹配追踪所形成,而小的循环则被大的迭代所包含,是由最小均方所形成,不断地迭代来更新的值。
压缩采样匹配追踪(Compressive Sampling Matching Pursuit, CoSaMP)
[编辑]在进行该还原算法前需要额外的输入参数-稀疏性数量K(信号非零项的数量)。和一般的贪婪迭代算法一样,整个还原过程同样是由(1)匹配追踪(找出内积最大的列)、(2)还原值估计(通过最大内积列来估计还原值)、(3)剩余值(residual)更新(通过估计还原值来更新误差)不停地迭代组成。
和正交匹配追踪不同的是正交匹配追踪在每次迭代的匹配追踪上只寻找并增加一个内积最大的列;而压缩采样匹配追踪则在每次迭代的匹配追踪上寻找并增加2K个内积最大的列。
压缩采样匹配追踪过程:
参数定义:π为相关向量、r(t)为在第t次迭代的剩余值(residual)、ω为在π里面最大的值、Ω为support的集合
- 初始化,
- 计算相关向量π
- π = |r(t)|
- 从相关向量π里面寻找出2K个最高correlation值的supports
- ω x{ | π(ω) | }
- 把找到的support加入support 集合里面
- Ω = Ω ᑌ supp(T(π,2K)),T(π,2K)为在π里面2K个最高的值、supp(T(π,2K))为T(π,2K)的索引集合
- 因为初始Ω里面含有K个supports,所以在经过3.后的Ω里面将含有2K至3K个supports
- 挑出需要运算的矩阵A
- = {},为第j列的矩阵A
- 利用最小二乘法(least square,LS)计算出
- = ,= 0
- 以每一列绝对值的大小排列Ω里面的每一列,并只保留前K个最大的supports,把剩余的删去
- Ω = supp,= 0
- 剩余值(residual)更新
- r(t+1) = y - Ax(t+1)
- 如达到终止条件,结束该还原,返还x(t);否则回到1.继续。
- 终止条件: 或者 (t=)
子空间追踪(Subspace Pursuit,SP)
[编辑]子空间追踪还原算法和压缩采样匹配追踪还原算法相似,它们之间只有三个主要的差别。
- 只从相关向量π里面寻找出K个最高correlation值的supports,而不是K个。
- Ω = Ω ᑌ supp(T(π,K))
- 在把K个supports移除过后,再进行一次最小二乘法,让预估计算的值更精准。
- 终止条件的更改。因为压缩采样匹配追踪还原算法需要额外定义的THR来当做终止条件,故子空间追踪用前一次迭代的剩余值(residual)来取代THR。
利用剩余值(residual)是否有在迭代过程在降低来当成循环终止条件,因此使得子空间追踪收敛的速度比压缩采样匹配追踪来的更快。
迭代阈值算法(Iterative Thresholding Algorithm)
[编辑]相较于凸松弛算法,迭代方法在压缩感知还原信号的速度更快。对于这类算法,主要透过过软阈值或硬阈值来正确的重建信号,而阈值的大小则会根据迭代次数进行调整。 最近提出了扩展匹配追踪(Expander Matching Pursuits)、稀疏匹配追踪(Sparse Matching Pursuit)和序列稀疏匹配追踪(Sequential Sparse Matching Pursuits),实现了近线性还原时间。
组合/次线性算法(Combinatorial/Sublinear Algorithms)
[编辑]这类算法通过分组测试来还原稀疏信号。与凸松弛算法或贪婪算法相比,它们有高速和高效的好处,然而对于测量矩阵有特定模式稀疏的要求。代表性的算法有傅里叶采样算法(Fourier Sampling Algorithm)和炼式追踪(Chaining Pursuits)。
非凸最小化算法(Non Convex Minimization Algorithms)
[编辑]非凸局部最小化技术通过用规范替换规范来从更少的测量中恢复CS信号,其中。非凸优化主要应用于医学影像断层扫描、网络状态推断、资料串流压缩。文献中提出了许多使用这种技术的算法,例如聚焦欠定系统解法(Focal Underdetermined System Solution, FOCUSS)、迭代重新加权最小平方法(Iterative Re-weighted Least Squares)、稀疏贝叶斯学习算法(Sparse Bayesian Learning Algorithms)、基于蒙特卡罗(Monte-Carlo based Algorithms)的算法。
布里格曼迭代算法(Bregman Iterative Algorithm)
[编辑]这些算法提供了一种解决最小化问题的简单而有效的方法。文献[3]给出了一个新的想法,它透过布里格曼迭代正则化方法产生一系列无约束子问题给出约束问题的精确解。当应用于压缩感知问题时,使用布里格曼的迭代方法能在四到六次的迭代中实现还原。与其他现有算法相比,这些算法的计算速度特别吸引人。
复杂度比较
[编辑]种类 | 算法 | 复杂度 | 最小测量次数 |
---|---|---|---|
凸松弛 | 基追踪 | ||
贪婪迭代算法 | 正交匹配追踪 | ||
正则化正交匹配追踪 | |||
压缩采样匹配追踪 | |||
迭代阈值算法 | 扩展匹配追踪 | ||
组合/次线性算法 | 炼式追踪 |
参考资料
[编辑]- ^ 1.0 1.1 Qaisar, S.; Bilal, R. M.; Iqbal, W.; Naureen, M.; Lee, S. Compressive sensing: From theory to applications, a survey. Journal of Communications and Networks. October 2013, 15 (5): 443–456 [2017-12-19]. ISSN 1229-2370. doi:10.1109/JCN.2013.000083. (原始内容存档于2018-11-28).
- ^ Sparrer, S.; Fischer, R.F.H. MMSE-based version of OMP for recovery of discrete-valued sparse signals. Electronics Letters. 2016-01-08, 52 (1): 75–77. ISSN 0013-5194. doi:10.1049/el.2015.0924.
- ^ Yin, W.; Osher, S.; Goldfarb, D.; Darbon, J. Bregman Iterative Algorithms for $\ell_1$-Minimization with Applications to Compressed Sensing. SIAM Journal on Imaging Sciences. 2008-01-01, 1 (1): 143–168. doi:10.1137/070703983.