Compressed Sensing(一):RIP、NSP、Coherence、Spark 和 Rank

时间:2023-01-09 15:29:18

1、关于RIP,先给出定义,出自【1】

Compressed Sensing(一):RIP、NSP、Coherence、Spark 和 Rank

上图可看出,δs 是某非负定矩阵的最大特征值。


2、关于NSP,先给出定义,出自【1】

Compressed Sensing(一):RIP、NSP、Coherence、Spark 和 Rank

另外,文献【2】给出了另一种说法,

Compressed Sensing(一):RIP、NSP、Coherence、Spark 和 Rank

容易看出,这两种说法是一样的,因为

Compressed Sensing(一):RIP、NSP、Coherence、Spark 和 Rank

注:因为引自不同的文献,所以符号不同。(4.1)的 V和(2)的 x 意义是一样的。


3、关于Coherence,先给出定义,【1】

Compressed Sensing(一):RIP、NSP、Coherence、Spark 和 Rank

Coherence反应了矩阵 A 携带信息的冗余性。在Dictionary Learning中,μ 越小,作为字典的性能越好。


4、关于Spark,先给出定义,【3】

Compressed Sensing(一):RIP、NSP、Coherence、Spark 和 Rank

    可看出,Rank 和 Spark 的定义很相似。只是,Rank指矩阵 A 的所有列中,线性无关列的最大数目,Spark指矩阵 A 的所有列中,线性相关列的最小数目。令 A :m×N, Rank(A)与 Spark(A)的和,差等与 N 没有必然的关系。比如矩阵 A 满秩,Spark(A) = 2(将下例出第3或4列去掉,即可)。例子出自【4】

Compressed Sensing(一):RIP、NSP、Coherence、Spark 和 Rank

注:矩阵的秩等于行秩,也等于列秩。但行满秩不一定列满秩,除非矩阵是方阵。


5、关于Rank,学过线性代数或高等数学的同学,应该对它比较熟悉了。这里就不介绍了。


6、许多学者的研究已表明,Coherence、RIP和 NSP 是K-sparse信号能够精确恢复的保证,当它们满足特定的不等式时。比如上文提到的(4.1)和(2),Coherence需满足的条件详见【1】的chapter 5. 但 RIC,NSC的求解却是一个NP-hard问题。

 

如何跳过 NP-hard ,达到我们所需的条件,下次更新!





【1】《A Mathematical Introduction to Compressive Sensing》Simon Foucart et.al.

【2】 《The Computational Complexity of the Restricted Isometry Property, the Nullspace Property, and Related Concepts in Compressed Sensing》Andreas M. Tillmann and Marc E. Pfetsch.

【3】《Optimally sparse representation in general (nonorthogonal) dictionaries via ℓ1 minimization》David L. Donoho and Michael Elad.

【4】《Sparse & Redundant Representation Modeling of Images Theory and Applications 2012》Michael Elad.