文 献 综 述
一、课程研究的背景及意义
图像融合就是利用各种成像传感器不同的成像方式,提供互补信息,增加图像的信息量,减少原始图像数据量,提高对环境的适应性,以获得更可靠,更准确的信息供观察或进一步处理。它是一门综合了传感器、技术信号处理、图像处理和人工智能等的新兴技术。近年来,图像融合已成为一种十分重要的图像分析与计算机视觉技术。它在自动目标识别、计算机视觉、遥感、机器人、医学图像处理以及军事应用等领域有着广泛的应用前景。
二、国内外研究现状
多传感器图像融合一般分为像素级图像融合、特征级图像融合和决策级图像融合。像素级图像融合作为最基本的融合,它是特征级图像融合和决策级图像融合的基础。在像素级图像融合中。其融合算法大体上有:加权融合和主成分分析[1,2,3]、假彩色图像融合算法[4,5,6]、基于马尔可夫随机场的图像融合[7,8]、调制图像融合算法[9,10]、基于统计的图像融合[11,12,13]、基于神经网络的图像融合[14,15,16]及多分辨率图像融合等算法。其中多分辨率图像融合算法作为一类非常重要的融合算法,目前在图像融合领域中,有着相当多的应用。
随着传感器技术的发展,红外和可见光图像传感器在军事和安全监控领域得到了广泛应用。红外和可见光图像传感器的成像特点及局限性,使其在不同的成像条件、环境和背景下,利用单一传感器难以完成探测、侦察、跟踪等任务。因此,如何利用红外和可见光图像传感器间信息互补的 特性,有效地综合和发掘红外和可见光图像的特征信息,突出红外目标,增强场景理解,一直是红外和可见光图像融合的技术研究热点。
三、图像融合技术综述
近年来,基于多尺度变换的方法被广泛应用在图像融合领域,其融合规则多是基于单个像素或邻域窗口[1,2,3,4]。由于图像各个区域的像素之间具有较强的相关性,单个像素或局部窗口不能完全表征图像的区域特征,故基于像素或邻域窗口的融合规则不能很好地表示图像中各个对象的局部结构特征[5]。相比之下,基于区域的融合方法在图像区域特征表示方面更具有优势。然而目前基于区域的融合方法或依赖于传统的图像分割算法,或基于一些特殊的图像特征来提取对象,其算法计算复杂度高,执行速度慢。另外,基于区域的融合方法[6,7,8]虽然在提取源图像的局部特征方面有很好的效果,但很难清楚地表现边缘纹理信息。
四、基于多分辨率框架的图像融合方法
多分辨率图像融合的原理结构如图所示。多分辨率结构中的各级子图像(或系数)相继表示分辨率逐级降低的输入图像。此种结构描述了图像中的特征信息,其相继各级子图像(或系数)是越来越粗略地表示这些特征[9]。
以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。