本文依据压缩感知群中Ammy讲解整理所得
最初的压缩感知是由Candès、Donoho他们提出来的问题。最初压缩感知那几篇文章里的模型 :
。
在后续的研究过程中发现很多信号x压根不稀疏,自然也就不满足模型一的要求了。经过研究发现,虽然信号x不稀疏但是可以通过某种正交变换使信号变的稀疏。这也就产生了第二种稀疏模型:
这种模型叫做 合成出来的。
模型二与模型三的区别:
在模型二中,由于,人们只需要找到一个满足的矩阵,就可以到处使用了。
在模型三中,由于不相关。
在实际使用的过程中人们发现高斯随机矩阵满足第2个模型,高斯矩阵是因为满足。形式上都是高斯,所以看起来“似乎一样”,但实际上还是有本质区别的,这时给初学者有很大的障碍去理解的。
在后续的研究过程中发现很多信号x压根不稀疏,自然也就不满足模型一的要求了。经过研究发现,虽然信号x不稀疏但是可以通过某种正交变换使信号变的稀疏。这也就产生了第二种稀疏模型:
代入到模型一也就得到了模型二了。
这种稀疏变换的模型,叫做 。例如,小波分解;例如,傅里叶分解。
随着稀疏表示模型的发展,人们发现不仅仅能够通过变换得到稀疏的信号还可以通过一个字典得到稀疏信号
这种稀疏变换的模型,叫做 。例如,小波分解;例如,傅里叶分解。
随着稀疏表示模型的发展,人们发现不仅仅能够通过变换得到稀疏的信号还可以通过一个字典得到稀疏信号
这种模型叫做 合成出来的。
模型二与模型三的区别:
在模型二中,由于,人们只需要找到一个满足的矩阵,就可以到处使用了。
在模型三中,由于不相关。
在实际使用的过程中人们发现高斯随机矩阵满足第2个模型,高斯矩阵是因为满足。形式上都是高斯,所以看起来“似乎一样”,但实际上还是有本质区别的,这时给初学者有很大的障碍去理解的。