1. 引言
随着自主式水下机器人的发展,水下机器人在海洋探测方面扮演着重要的角色,其以
图像处理与分析为基础.人们可以通过机器人轻松地从各种海底世界收集图像和视频,并进
行广泛的应用.但是由于光在水中传播时,受到微粒和杂质的散射以及水介质的吸收作用而
产生强烈的衰减,这使得捕获的图像存在色偏、雾化、模糊等退化现象,从而限制了它们
在视觉任务中的适用性.因此,开发有效的解决方案来提高水下图像的可见度、对比度和色
彩属性是非常有必要的.
目前,水下图像增强的研究分为两大类:基于水下成像模型的算法和基于非水下成像
模型的算法.水下成像模型如下所示:
Ic(x,y)=Jc(x,y)tc(x,y)+Bc(1−tc(x,y))Ic(x,y)=Jc(x,y)tc(x,y)+Bc(1−tc(x,y))
式中,I
c
(x, y)为水下图像;J
c
(x, y)为清晰图像;(x, y)为像素位置;B
c
背景光系数;
t
c
(x, y)为传输图;c 为图像的 rgb 三个颜色通道.
基于水下成像模型的算法旨在逆求解水下成像模型,以获得复原水下图像.由于这个反
问题是不适定的,文献[1]通过引入先验或假设作为附加约束来求出传输图和背景光系数.但
是由于先验和假设是针对特定场景条件引入的,因此在某些先验不成立的场景下,这类算
法效果较差.近年来,卷积神经网络(Convolutional Neural Network,CNN)和生成对抗网络
(Generative Adversarial Network,GAN)
[2]
在视觉任务中的得到了广泛的应用
[3, 4]
,许多基于
深度学习的水下图像增强算法被提出.文献[5]通过 CNN 来估计传输图和背景光系数,从而
逆推得到清晰图像.这类算法的适用范围较广,不再局限于特定场景.但是由于严重的水下光
散射和吸收,从输入的水下图像中去估计传输图和背景光不是一个简单的任务,并且对传
输图和背景光的不准确估计会影响清晰图像的恢复.为了克服这个问题,文献[6-8]不依赖水
下成像模型,以 CNN 或 GAN 为基础,采用端到端的方式直接输出清晰图像.尽管这类算法
的性能优于基于模型的算法,但是它们都基本采用通用的网络结构,例如 DenseNet、U-
Net
[9]
等.这些结构存在着一些局限性,它们无法很好地融合语义和尺度不一致的特征.通常
不同级别的特征图在每个空间位置上携带的信息量不同且具有不同的清晰度,盲目的将不
同级别的特征 1:1 融合会导致图像出现不同程度的噪声,对水下图像增强问题并没有很好
地优化.
针对上述问题,本文提出一种基于条件生成对抗网络(Conditional GAN,CGAN)
[10]
的
自适应密集特征融合水下图像增强算法.生成器的设计基于 U-Net 结构.与其他方法不同,为
了解决 U-Net 非相邻层之间缺乏足够的连接和无法有效融合不同尺度特征的问题,本文提
出自适应密集特征融合(adaptive dense feature fusion,ADFF)模块嵌入到生成器中.ADFF 模
块可以通过密接连接充分利用前面所有级别的特征,并使网络学习不同级别特征的空间重
要性权重,赋予重要特征更多权重,赋予不重要特征更少权重.在每个空间位置,将当前级
评论0
最新资源