多尺度注意力机制的水下图像增强算法UnderwaterImageEnhancementBasedonMulti

多尺度注意力机制的水下图像增强算法

王士川,杜玲

天津工业大学计算机科学与技术学院,天津

收稿日期:2021年8月12日;录用日期:2021年10月7日;发布日期:2021年10月14日

摘要

关键词

水下图像增强,生成对抗网络,深度学习

UnderwaterImageEnhancementBasedonMulti-ScaleAttentionMechanism

ShichuanWang,LingDu

SchoolofComputerScienceandTechnology,TiangongUniversity,Tianjin

Received:Aug.12th,2021;accepted:Oct.7th,2021;published:Oct.14th,2021

ABSTRACT

Duetotheattenuationdifferenceofdifferentwavelengthsoflightinthewaterenvironment,theoriginalunderwaterimagesshowgreenish,bluishandwhitehazeproblems.Forunderwaterimageenhancement,thispaperproposesagenerativeadversarialnetworkbycombiningmulti-scaledenseblocksandattentionmechanism.Theresidualmultiscaledenseblockisusedinthegenerator,andtheattentionmechanismblockisusedintheback-endtofocusonthefront-endfeatures,whichcanimprovethelearningabilityandenhancethenetwork’sabilitytoselectfeatures,respectively.Eachlayerofthediscriminatorusesspectralnormalizationandrelaxesthediscriminantcriteriatoreducethegradientcollapsecausedbyanomalousdata.Atthesametime,multiplelossfunctionsarecombinedtoenhancethegeneralizationabilityofGANnetworks.Theproposedalgorithmistestedonpublicdatasetsandvalidatedinpracticalapplications.Experimentalresultsshowbetterperformancethanexistingalgorithms.

Keywords:UnderwaterImageEnhancement,GenerativeAdversarialNetwork,DeepLearning

ThisworkislicensedundertheCreativeCommonsAttributionInternationalLicense(CCBY4.0).

1.引言

深度学习在视觉任务中的成功,如目标检测和图像分割,激发了越来越多的深度模型在图像恢复中的应用[2]。然而,对于水下任务来说,数据集是一个难以解决的问题。现有的水下数据集相对稀少,而且参考图像的质量很难与自然图像相比。生成对抗网络(GAN)比其他基于深度学习的模型显示出更好的视觉效果。它将图像恢复问题转化为图像生成问题,其独特的自主生成特性,缓解了高质量数据集的一些压力。目前,已经提出许多有效的方法用于水下图像增强任务。

然而,对于基于GAN的水下图像增强方法,仍然存在一些限制。首先,用于训练的水下图像数据集的多样性是不够的。根据[3]中测量的十个不同的水体的结果,淡水和咸水水体之间存在很大的差异。不同纬度的水体和不同强度的环境光导致同一水下目标的颜色有所不同。其次,生成的模型对特殊的数据特征没有给予足够的重视。根据经典的Jaffe-McGlamery水下成像模型[4],白色雾状模糊团往往出现在浅水区。随着水深的增加,不同波长的光的衰减是非线性的,色彩对比度逐渐降低。这导致了在一定深度下的显著内容损失,使得GAN模型很难将白雾从图像场景中区分出来,增强结果会出现对比度偏差并出现难以解决的模糊感。第三,由于现有的GAN模型采用动态平衡作为收敛的判断结果,因此结果不够稳定,传统的对抗性损失在训练的早期阶段很难收敛,这会对增强效果产生影响。

在本文中,我们提出了一个条件生成对抗网络(c-GAN),它结合了多尺度密集块和注意力机制,主要贡献如下:

1)提出了一个结合多尺度密集块和注意力机制块的生成器网络,直接从退化的图像中获得增强的结果,而不需要预先构建水下退化模型。

3)采用两个与人类感官高度一致的非参考评价指标对实验结果给出了主观和客观评价,证明了所提出的算法在水下图像增强中的优越性。

水下图像增强是一项艰巨的任务,主要由于水下复杂的光照环境会严重降低可见度并且导致色彩失真。近年来提出了许多水下图像恢复和增强的方法,现有的方法可归纳为以下两类。

2.1.基于传统的方法

传统方法主要使用基于物理散射模型的人工方法。Wei等[5]使用水下光的衰减先验模型来估计水下场景图像的深度信息,从而可以获得预测的背景光和透射图信息。Huang等[6]将图像恢复分为两部分:对比度恢复与颜色调整。首先在RGB颜色空间中使用动态参数均衡G和B通道,然后在CIE-Lab色彩空间中调整各个分量来恢复颜色。与[5]和[6]不同,Ancuti等[7]尝试以多尺度融合的方式统一强度校正和边缘锐化。基于先验的人工方法缺乏概括性,如果不满足该假设,则无法获得良好的性能。因此,在野外,它们通常表现较差,例如不良的伪影、颜色失真等。

2.2.基于深度学习的方法

深度学习技术所拥有的强大特征学习能力是有目共睹的,其主要通过学习大量数据特征拟合不同图像信息的映射关系。根据使用的不同网络框架,将其大致划分为基于CNN的方法和基于GAN的方法。

Li等人[8]对比了多种水下图像增强算法的主观结果,构建了一个真实世界水下图像数据集,并且提出了一种基于CNN的融合增强算法,通过对原始图像进行直方图均衡化、伽马矫正、自适应白平衡等操作得到多种增强图像,并训练学习不同权重从而得到最终的融合结果。Hou等人[9]提出了一种在图像的传输图像域使用残差学习的水下图像增强网络,将水下图像增强任务建模为同时学习传输图和场景残差,该方法可以将先验知识和数据信息整合在一起以研究水下图像的潜在分布。Islam等[10]提出了具有端到端可训练模型的一种统一方法Deep-SESR,将水下图像增强和单图像超分辨率结合起来,最高可以得到4倍分辨率的增强图像。该体系结构结合了密集残差子网和辅助注意力网络,以促进网络学习局部密集的信息特征。

在[11]中,Uplavikar等人提出了一种统一了十种水类型的GAN模型,该模型通过一个干扰网络对编码器的输出进行判别,迫使编码器对不同域的水下图像的输出分布更接近,从而消除不同类别对解码器的影响。Li等[12]从图像风格转换收到启发,改进了CycleGAN网络(WSCT),添加一项SSIM损失作为内容损失,联合CycleGAN的循环一致性损失和对抗损失,无需成对的数据集即可将水下图像的内容和结构接近空气中的图像。Fabbri等人[13]直接使用CycleGAN,通过对ImageNet的子集[14]生成成对图像以解决训练集的稀少问题,使用WGAN损失约束GAN网络,梯度损失和L1损失约束内容,训练UGAN恢复网络。

不同于上述方法,本文使用水下失真图像和对应参考图像训练模型,使用了多尺度密集块和通道-空间注意力机制块来提升质量,只需一个训练模型就可以在不同类型的水下图像中取得良好的效果。

3.多尺度注意力水下图像增强算法

Figure1.Overallframework

本文提出的方案使用对抗损失、L1损失与L2损失组合的像素级别的内容损失、SSIM损失和特征损失组合的结构损失共同限制整个网络来生成视觉上质量良好的图像。

3.1.网络结构

3.1.1.生成器网络

Figure2.Generatornetworkstructure

Figure3.Multi-scaledenseblockstructure

道数,前端特征和后端特征拥有相同的特征图尺寸。

Figure4.Channelattentionbranch(top)andspatialattentionbranch(bottom)structure

3.1.2.判别器网络

所提出的判别器网络结构受到马尔可夫判别器(PatchGAN)[20]的启发。网络完全由卷积层组成,可以对任意大小的图像进行判别。前两个卷积层的步长为1,其余卷积层的步长为2,每经过一次卷积,特征图数量增加一倍。所有的卷积核尺寸都设置为偶数,便于更好地提取边缘特征。每个卷积层都使用谱归一化[21]进行梯度约束,以限制判别器的Lipschitz常数。文献[22]显示,具有谱归一化的判别器比没有谱归一化的判别器具有更好的客观质量分数。卷积层后紧跟LeakyReLU激活层,用以稳定上层的输出。在上述网络设置下,GAN网络具有非常强的稳定性。

3.2.损失函数

GAN的生成器网络生成一个未失真的图像,用来欺骗判别器。判别器接收一组未知图像和原始失真图像串联的图像数据,并对这组图像进行判别。GAN的训练过程是交替优化生成网络和判别器网络。对抗网络的损失函数如公式(1)所示:

其中C、W、H为常数,分别代表图像的通道数,宽度和高度。

结构相似性(SSIM)[23]可以根据亮度、对比度和结构这三个属性对图像进行比较。其描述增强后的图像和参考图像在上述三个指标中的相似度,数值范围介于0到1。并且数值越大,与参考图像的相似度越高。该指标更接近于人类的直觉,可以得出与主观评价一致的结论。在损失函数中加入SSIM损失来增强结果,如公式(4)所示:

综上,通过线性连接上述公式(1)~(5),可以得到总损失函数如下:

4.实验结果与分析

本文使用公开的数据集进行实验,并在相同条件下与其他算法(包括基于深度学习的算法和传统算法)进行比较。然后,我们对测试图像进行了主观和客观的评估,最后用两种典型的应用算法验证我们方法的实用性。事实证明,该方法具有良好的增强效果。

4.1.数据集与训练细节

4.2.主观评价

所提出的算法与基于对比度约束的自适应直方图均衡(CLAHE)[24]、水下图像融合增强(FE)[7]、基于水下光衰减先验(ULAP)[5]、基于弱监督色彩转换(WSCT)[12]和基于生成式对抗网络的水下图像增强(UGAN)[13]进行比较。

Figure5.Comparisonofexperimentalresultsofdifferentunderwaterimageenhancementalgorithms

4.3.客观评价

将本文所提算法和其他算法使用不同指标进行比较。我们使用均方误差(MSE)、峰值信噪比(PSNR)、结构相似度(SSIM)、水下图像质量测量指标(UnderwaterImageQualityMeasure,UIQM)[25]和自然图像质量评价指标(NaturalImageQualityEvaluator,NIQE)[26]对各个算法的测试结果进行了定量比较。MSE指标描述了由增强算法获得的图像与参考图像在像素层面上的差异。该值越小,两幅图像的像素值就越接近。PSNR指标描述了生成的图像中保留了多少原始信息。数值越大,图像中保留的原始信息就越多。SSIM指标描述了两幅图像在亮度和对比度等主观指标方面的相似度。该值越大,说明图像与参考图像在高级特征方面的重叠程度越高。UIQM代表水下图像质量指标,它只需要一张图像,是一个非参考评价指标,更适合于开放的水下任务。UIQM的评价分为三部分,即图像颜色指标(UICM)、清晰度指标(UISM)和对比度指标(UIConM)。UIQM的计算方法如公式(7)所示:

Table1.Quantitativecomparisonofdifferentunderwaterimageenhancementalgorithms

5.总结

水下图像受特殊成像环境影响存在颜色失真、对比度低等问题,本文提出一种水下图像增强算法,该算法在GAN网络中加入多尺度密集块和注意力机制块。在生成器网络中使用残差多尺度密集块,提高了网络对特征的提取能力,并且加入两组空间–通道注意力机制块,增强了网络对复杂特征的筛选能力,提升了网络的收敛速度。同时将多种内容损失和结构损失相结合,在不同尺度空间对网络进行约束,提升了GAN网络的稳定性和对不同图像的泛用性。最后进行了多种对比试验,证明本文算法可以对失真水下图像进行较好的增强,提升图像的整体视觉效果。

THE END
1.强化学习的主流算法:从基础到实践强化学习的主要应用场景包括机器人控制、游戏AI、自动驾驶、推荐系统等。随着数据量的增加和计算能力的提升,强化学习在近年来取得了显著的进展。本文将从基础到实践的角度介绍强化学习的主流算法,包括值函数方法(Value-based methods)、策略梯度方法(Policy-gradient methods)和模型基于方法(Model-based methods)。 https://blog.csdn.net/universsky2015/article/details/137307363
2.人工智能大模型原理与应用实战:强化学习理论51CTO博客在本节中,我们将详细介绍强化学习中的一些核心算法,包括值迭代(Value Iteration)、策略迭代(Policy Iteration)、Q-学习(Q-Learning)等。同时,我们还将讲解这些算法的原理、具体操作步骤以及数学模型公式。 3.1 值迭代 值迭代是一种基于动态规划的强化学习算法,它通过迭代地更新值函数来找到最优策略。值迭代的主要思想https://blog.51cto.com/universsky/8997575
3.强化学习详解:理论基础与核心算法解析动态规划是一种通过递推方式求解优化问题的算法。在强化学习中,动态规划用于计算最优策略和价值函数。动态规划的前提是模型已知,即环境的状态转移概率和奖励函数是已知的。 3.1.1 价值迭代(Value Iteration) 价值迭代是一种通过不断更新价值函数来逼近最优价值函数的方法。其核心思想是利用贝尔曼最优方程递归地更新状态https://www.jianshu.com/p/09c44358b4a6
4.科学网—[转载]进化集成学习算法综述【摘 要】进化集成学习结合了集成学习和进化算法两方面的优势,并在机器学习、数据挖掘和模式识别等领域被广泛应用。首先对进化集成学习算法的理论基础、组成结构及分类情况进行了概述。然后根据进化算法在集成学习中的优化任务,从样本选择、特征选择、集成模型参数组合优化、集成模型结构优化以及集成模型融合策略优化几个方面https://wap.sciencenet.cn/blog-951291-1312816.html
5.2021届计算机科学方向毕业设计(论文)阶段性汇报在代码方面,目前已经搭建了基于SemGCN的基本模型框架,并且在小规模的数据集上验证了模型的正确性。未来将在此基础上进一步探究GCN层的不同实现方式和效果,并在大数据集上进行验证实验。 杨雨欢 基于多智能体增强学习的交互式图像分割算法研究 主要实验是在自然数据集Pascal VOC上扩展pixelRL算法,并进行多分类任务https://zhiyuan.sjtu.edu.cn/html/zhiyuan/announcement_view.php?id=3943
6.第三代神经网络模型:面向AI应用的脉冲神经网络澎湃号·湃客由于计算复杂性的原因,大多数的脉冲神经元模型都不适用于类似人工神经网络的大规模模拟。Wolfgang Maass 在提出SNN时使用的是相对简单的整合发放模型,而带泄漏整合发放(leaky integrate-and-fire,LIF)模型[1]则是目前在面向AI的SNN研究中最为常用的脉冲神经元。一些面向SNN学习算法的工作将LIF神经元与循环神经元进行类https://www.thepaper.cn/newsDetail_forward_27289221
7.深度学习中有哪些数据增强方法?至少从19年 NLP方向 google出品的半监督学习算法 UDA 可以看出[6],文本数据增强技术可以用在无标签样本上,以构造出半监督训练所需的样本对,以此让模型从无标签的数据中获取到优化所需的梯度。关于半监督学习的具体进展,后面如果有时间,可以单开一篇文章介绍。 (4) 提高模型的鲁棒性 数据增强技术在不严谨的情况下https://www.zhihu.com/question/319291048
8.基于深度强化学习的水面无人艇路径跟踪方法一方面,本发明的策略模型基于柔性演员评论家算法构建,并通过马尔可夫决策过程训练和参数更新,使得能够将深度强化学习算法应用到无人艇运动控制,而这种基于深度强化学习的控制方法不用对无人艇的动力学和环境干扰进行人工显式建模,并且通过参考航向角、实时位姿信息和环境干扰信息等生成的状态值,能够在与环境的交互过程中https://www.xjishu.com/zhuanli/54/202210772926.html/
9.详解5大常用的特征选择方法!腾讯云开发者社区2.4 基于学习模型的特征排序 英文:Model based ranking 这种方法的思路是直接使用你要用的机器学习算法,针对每个单独的特征和响应变量建立预测模型。其实Pearson相关系数等价于线性回归里的标准化回归系数。假如某个特征和响应变量之间的关系是非线性的,可以用基于树的方法(决策树、随机森林)、或者扩展的线性模型等。基于https://cloud.tencent.com/developer/article/1975833
10.基于多任务学习的肝细胞癌分割与病理分化程度预测方法最后,期望本文提出的多任务学习方法能够在HCC分割和病理分化程度预测两个任务上同时获得良好的性能,从而为HCC患者的临床诊断和治疗提供参考借鉴。 1 多任务学习算法 本文提出的多任务学习模型如图1所示,包含分割子网和分类子网。分割子网是一个具有边界感知注意力的U-net变体结构;分类子网的基干网络和分割子网的编码器https://www.cjebm.com/article/10.7507/1001-5515.202208045
11.台风科学研究为防灾减灾强支撑首先设定了13个表征台风尺度的参数,使用5种算法对给出的8种输入方案进行算法模型训练、验证和测试,通过对各算法模型估算性能的评估,确定各参数的最佳估算模型和最优输入方案,之后进行模型优化再训练,最终确定算法模型最优参数。 基于模型构建了1981—2020年西北太平洋的台风尺度精细结构数据集,使用飞机探测报、JTWC最佳路https://www.cma.gov.cn/2011xwzx/2011xqxxw/2011xqxyw/202305/t20230531_5541701.html