文献综述
课题的现状及发展趋势:
随着信息技术的飞速发展使得人们对信息的需求量剧增,信号从模拟到数字的转换一直都严格遵守着奈奎斯特采样定理,它指出,采样速率必须达到信号带宽的2倍以上才能精确重构信号[1]。随着传感系统获取数据能力不断增强,需要处理的数据量也不断增多,这给信号处理的能力提出了更高的要求,也给相应的硬件设备带来极大的挑战。而在实际中,为了降低存储、处理和传输成本,人们常采用高速采样再压缩的方法,这浪费了大量的采样资源[2]。近年来,出现了一种新的理论——compressed sensing(或 CS,compressive sampling),即压缩感知[3],或者叫压缩采样。其利用其他变换空间描述信号,使得在保证信息不损失的情况下,用远低于采样定理要求的速率采样信号的同时,又可完全恢复信号,即将对信号的采样转变为对信息的采样。这极大的降低了信号的采样频率、信号处理的时间和计算成本以及数据存储和传输的代价,带领信号处理进入一个新的革命时代[4]。压缩感知理论出现时间不长,其理论还存在很多问题需要解决,目前国内也陆续出现这方面的研究工作,但主要集中在对已有理论的介绍,更深入的研究还有待进一步开展。
随着信息社会的发展,在日常生活中会经常遇到获取、存储、处理以及传输海量信息的问题。以数码相机拍照为例,由于从 CCD 获得的图像数据量很大,若是直接存储,一张1G bit 的存储卡只能保存几十张照片。而若通过某一压缩算法对图像信息进行重新“表示”,即可剔除照片中的冗余信息,使一张存储卡保存成百上千张照片。这是一个典型的信息编解码过程,从数学角度来讲就是信息的变换域处理[5]。
2004年,Donoho和Candes等人提出的压缩感知采样理论,该理论表明,只要信号是可压缩的或在某个变换域是稀疏的,那么就可以用一个与变换基不相关的观测矩阵将变换所得高维信号投影到一个低维空间上,然后通过求解一个优化问题就可以从这些少量的投影中以高概率重构出原信号,可以证明这样的投影包含了重构信号的足够信息[6]。压缩感知采样理论将数据采集与压缩合二为一,提高了信号处理效率和资源利用率,目前已在信号处理,“鬼”成像,遥感探测,无线通信,语音识别,医学成像、地质勘探、机器学习等领域得到了广泛应用。“鬼”成像( Ghost Imaging,GI) ,也被称为关联成像,在量子光学领域,是近些年来研究的前沿和热点之一,它解决了一些在传统成像方案中使用常规成像技术不易解决的问题( 如光源、物体和探测器不在同一直线上的成像问题) 。与传统成像方案不同,在没有物体的参考光路中,该成像系统能够获得物体清晰的像,因而被称为“鬼”成像。这种成像方法作为一种新型成像技术,越来越多的被关注[7]。
压缩感知突破了传统的奈奎斯特采样定理,实现了采样方式的转变即从信号采样转变成信息采样[8],缓解了数据传输、存储和处理带来的压力。目前在雷达、统计信号处理和图像领域都有所应用[9]。CS理论有3个关键问题:信号稀疏变换、观测矩阵设计和恢复重构问题。其中,恢复重构问题直接关系到运算时间的长短,重构精度的大小,决定着CS理论是否切实可行[10]。
信号采样是模拟的物理世界通向数字的信息世界之必备手段。多年来,指导信号采样的理论基础一直是著名的 Nyquist 采样定理。定理指出,只有当采样速率达到信号带宽的两倍以上时,才能由采样信号精确重建原始信号。可见,带宽是 Nyquist 采样定理对采样的本质要求。但是,对于超宽带通信和信号处理、核磁共振成像、雷达遥感成像、传感器网络等实际应用,信号的带宽变得越来越大,人们对信号的采样速率、传输速度和存储空间的要求也变得越来越高。为了缓解对信号传输速度和存储空间的压力,当前常见的解决方案是信号压缩,如基于小波变换的 JPEG2000 标准[11] 。
传统的编码方法是以奈奎斯特准则为基础,对每个信号周期至少采样两次才能准确重建原始信号。当今视频传输的发展越发趋向于高清晰、高带宽,所以这就为硬件对信号的采集带来了巨大的困难,而由Donho提出的压缩感知理论突破了这一局限,此理论证明在一定条件下可以通过很少的采样数高概率重构出原始信号[12]。重建信号条件不是信号的带宽而是信号的稀疏度。如果信号稀疏或者在其变换域中系数呈现指数衰减,根据压缩感知理论则可以完全恢复出原始信号[13]。CS的主要思想就是对一类具有稀疏先验的信号,先经一小部分非线性采样,其包含足够信息逼近原信号,再通过一类线性或者非线性解码机制可高概率重构原始信号[14]。
目前,在美国、英国、德国、法国、瑞士、以色列等许多国家的知名大学[15](例如麻省理工学院(Massachusetts In-stitute of Technology)、斯坦福大学 (Stanford Uni-versity)、普林斯顿大学(Princeton University)、莱斯大学(Rice University)、杜克大学(Duke Uni-versity)、慕尼黑工业大学(Technical University ofMunich)、爱丁堡大学(Edinburgh University) 等)都成立专门课题组对CS 进行研究[16,17];2008年西雅图Intel、贝尔实验室、Google等知名公司也开始组织研究CS,这使得信号处理的许多应用领域也随着CS 理论的研究发生根本性的发展和变化在CS理论中[18],随机编码的鲁棒性关键在于要使随机化测量具有相等的优先等级,这种随机编码与当前的变换编码(例如Fourier 或Wavelet) 中的系数不同,它同时具有通用性、加密性、鲁棒性和可渐近性、可缩放性、计算的非对称性。同时,这种随机编码过程非常简单[15],仅需计算非相干投影而不做任何其他的处理。从而,可以把大部分的计算复杂性都放在解码器上。换句话说,这种随机编码采用了“少采样,后计算”的原则,把技术的负担从传感器转移到处理器上。因此,高效、快速、鲁棒的重建算法是将CS 理论推向实用化的关键之一,也是CS 理论研究的核心内容之一[19]。
