CN114581560B - 基于注意力机制的多尺度神经网络红外图像彩色化方法 - Google Patents
基于注意力机制的多尺度神经网络红外图像彩色化方法 Download PDFInfo
- Publication number
- CN114581560B CN114581560B CN202210199669.2A CN202210199669A CN114581560B CN 114581560 B CN114581560 B CN 114581560B CN 202210199669 A CN202210199669 A CN 202210199669A CN 114581560 B CN114581560 B CN 114581560B
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- attention mechanism
- attention
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 18
- 230000006870 function Effects 0.000 claims abstract description 32
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 230000008447 perception Effects 0.000 claims abstract description 7
- 238000003062 neural network model Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 2
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 239000002131 composite material Substances 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 8
- 238000004040 coloring Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000016776 visual perception Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于注意力机制的多尺度神经网络红外图像彩色化方法,该方法首先利用二维卷积神经网络在不同分辨率尺度下对输入的红外图像对进行特征提取,然后通过注意力机制对提取出的高维特征信息进行提炼处理,最终将多尺度信息进行融合处理得到预测的彩色化红外图像。与现有的红外图像彩色化网络相比,本发明基于注意力机制与多尺度层次化结构构建神经网络算法模型,通过采用改进的空间注意力与多维特征连结机制,能够提高网络模型特征提取能力的同时有效降低模型复杂度,通过设计像素损失、边缘损失和感知损失的复合损失函数,进一步提高彩色化红外图像的质量。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于注意力机制的多尺度神经网络红外图像彩色化方法。
背景技术
红外图像彩色化是计算机视觉领域一个备受关注的研究问题,在安防监控、无人系统、军用装备等各类系统中具有广泛的应用前景。特别地,如何实现高质量、高分辨率、多细节的彩色红外图像是该技术亟待突破的挑战。近年来,基于深度学习技术的人工智能发展迅速,在目标检测、图像分类、语音识别等领域取得了突破性进展。红外图像彩色化作为计算机视觉的应用热点之一,同样得益于深度神经网络技术的不断创新,彩色化效果得到显著提升。
常见的可见光灰度图像彩色化方法一般采用生成对抗网络实现彩色化功能。其生成器一般由U-net网络结构或者编解码网络结构(Encoder-Decoder)构成,这种结合了多尺度信息的生成器相比平坦网络可以获取更丰富的全局和局部信息。这样的网络设计在可见光灰度图像彩色化问题上取得了很好的结果。但由于红外图像和可见光图像在成像原理上的差异,直接将可见光图像彩色化方法用于红外图像彩色化中,会产生较为模糊的边缘以及细节信息,导致成像质量较差。
发明内容
本发明的目的在于提供一种基于注意力机制的多尺度神经网络红外图像彩色化方法,以获得高质量的彩色红外图像。本发明提出的网络结构以多尺度网络作为骨干,设计创新的注意力机制与特征连结方法,以增强网络的特征提取与利用能力。此外,本发明提出了一种针对红外图像彩色化网络的复合损失函数,有效地将像素损失、边缘损失和感知损失结合起来。基于网络结构和损失函数上的创新,本发明在红外图像着色结果上达到了目前最好的效果。
为达到上述目的,本发明采用如下技术方案来实现的:
基于注意力机制的多尺度神经网络红外图像彩色化方法,包括以下步骤:
1)从数据库中获取成对的红外图像和彩色图像,进行图像预处理后分为训练集和测试集;
2)构建基于注意力机制的多尺度神经网络模型,将训练集输入该基于注意力机制的多尺度神经网络模型进行训练;
3)将测试集输入训练好的基于注意力机制的多尺度神经网络模型进行测试,得到基于注意力机制的多尺度神经网络模型的新能和客观指标评估;
4)将待处理的红外图像输入测试通过的基于注意力机制的多尺度神经网络模型,则输出彩色化图像。
本发明进一步的改进在于,步骤2)的具体实现方法如下:
所述基于注意力机制的多尺度神经网络模型是从输入端到输出端的映射函数F(XN×H×W;θ),θ={θ1,θ2,...,θn},θ1表示第一层的参数,n表示多尺度神经网络的总层数,XN ×H×W表示输入图像,N,H,W分别为输入图像的维度,高度和宽度,损失函数为:
其中,x,y分别表示输入红外图像和对应的彩色图,Lpixel,Ledge,Lperceptual分别为像素损失、边缘损失和感知损失,x′,y′分别表示利用拉普拉斯边缘算子得到的红外图像边缘图和对应的彩色图边缘图,ti(x)和ti(y)分别表示红外图像和彩色图通过预训练的VGG19模型得到的特征图,∈为常数;
基于注意力机制的多尺度神经网络模型的训练是以取得损失函数L(x,y)的最优值来估计映射函数F中的参数θ的最优值θ′;
取得损失函数L(x,y)的最优值来估计映射函数F中的参数θ的最优值θ′具体为:
其中,l和i分别是卷积层的索引和迭代次数,η是学习率,是在第i次迭代时损失函数L(x,y)对第1层的偏导数,经过多尺度神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优值θ′;
所述基于注意力机制的多尺度神经网络模型包括特征提取和特征融合,特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
其中,N,H,W分别为输入图像的维度,高度和宽度;表示通过特征提取得到的图像,N′,W′,H′表示输出图像的维度,高度和宽度;θ1表示特征提取过程中的参数;
特征融合是对特征图像进行上采样并逐步使得通道的维度减少,最后生成一个三维的彩色化图像,公式为:
其中,θ2为在特征融合中的参数,Y1为生成的彩色化图像,Wo,Ho分别表示输出图像的高度和宽度。
本发明进一步的改进在于,∈=10-3。
本发明进一步的改进在于,通过使用自适应矩估计的梯度优化方法,提高基于注意力机制的多尺度神经网路的收敛速度,给定超参数0≤β1,β2≤1,给定时间步为t,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
其中,η表示学习率,mt和vt分别表示梯度的一阶矩和二阶矩,在迭代的阶段,mt和vt的偏移矫正公式为:
并根据如上的公式对各个参数μt进行更新:
其中β1,β2和∈为预设的参数,μ表示模型中的参数,μt为第t个步长中μ的值,m′t和v′t分别为经过偏移矫正后的梯度的一阶矩和二阶矩的估计值。
本发明进一步的改进在于,基于注意力机制的多尺度神经网络中的注意力机制,包括如下:
通道注意力机制:
其中,σ表示Sigmoid激活函数,F为通道注意力模块的输入,表示点乘操作,Maxpool为最大池化操作,/>为最大池化层的输出,/> 是两个权重矩阵的参数;
空间注意力机制:
MC(F)=σ(f7×7(Avgpool(F),Maxpool(F)))
其中f7×7为卷积核大小的卷积操作,为空间注意力模型的输出。
本发明进一步的改进在于,步骤3)的具体实现方法如下:
进行测试得到的基于注意力机制的多尺度神经网络模型的性能和客观指标评价,包括如下:
其中μx,μy分别表示图像x和y的均值和方差,分别表示图像x和y的标准差,σxy表示图像x和y的协方差,C1和C2为常数。
与现有技术相比,本发明至少具有如下有益的技术效果:
本发明提供的基于注意力机制的多尺度神经网络红外图像彩色化方法,利用注意力机制等适于红外图像特征的创新设计,有效解决了已有技术存在的特征提取能力不足、视觉感知质量不高等问题。
进一步,本发明提出的针对红外处理的注意力机制可以从多层级的特征图中提取多尺度的上下文信息,并且借助于高分辨率的特征信息,能够在上采样过程中有效保留更多的细节纹理,提高网络的处理精度。
进一步,本发明提出针对红外图像彩色化的复合损失函数,利用边缘损失和感知损失在保证红外图像彩色化质量的基础上提高结构信息质量和视觉感知效果。
附图说明
图1为本发明基于注意力机制的多尺度神经网络红外图像彩色化方法的整体框架;
图2为本发明注意力模块的示意图;
图3为本发明下采样卷积模块的示意图;
图4为本发明上采样卷积模块的示意图;
图5为本发明残差卷积模块的示意图;
图6为本发明多核感知模块的示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
本发明提供的基于注意力机制与多尺度神经网络的红外图像彩色化方法,其主要创新点在网络结构和损失函数两方面:
1)网络结构:首先,在多尺度网络中每一层对应的编码(Encoder)、解码(Decoder)卷积层后添加由通道注意力和空间注意力组成的注意力模块来增强网络的特征提取能力。通道注意力用于使彩色化网络专注于特征图(Feature maps)的某一层,空间注意力则使网络专注于特征图中的某一区域,二者是不同维度上的注意力机制。通道注意力和空间注意力的有效结合可以大幅提高彩色化网络的特征提取能力。其次,在多尺度网络结构中,跳级连结是常见的特征图融合方法,这样的跳级连结可以加速网络收敛。本发明在跳级连结中对于前级的特征图先进行提炼处理,再与后级的特征图完成连结操作。该设计的原因在于:较低层级中,由于特征图只经过了少量的卷积层,这些特征图包含的信息远少于较高层级。如先将较低层级中的特征图优先通过注意力机制和若干卷积层进行提炼处理,可以有效提高网络的彩色化能力。最后,考虑到多尺度网络具有在不同分辨率尺度下的特征提取能力并生成相应分辨率的高质量彩色化结果,本发明设计的红外图像彩色化网络在训练阶段将同时输出多种分辨率尺度的彩色化输出。
2)损失函数:本发明使用的损失函数由像素损失Lpixel、边缘损失Ledge以及感知损失Lperceptual三部分组成。首先,像素损失Lpixel由视觉任务中常用的L1损失函数计算,在训练前期还是训练后期均能提供有价值的梯度信息。其次,本发明提出了一种新颖的边缘损失Ledge,首先利用拉普拉斯边缘算子提取生成的彩色化图像和基准图像的边缘信息,随后用Charbonnier损失函数来计算二者之间的差异,能够在不破坏原始红外图像内容的基础上有效增强彩色化图像的结构信息。最后,本发明采用预训练的VGG19模型作为特征提取工具来计算感知损失Lperceptual,使彩色化图像与基准图像在高维度特征空间里具有更高的一致性,从而提升彩色化图像的视觉感知质量。
其中,网络结构中,在多层级网络的下采样阶段,利用最大池化代替卷积操作。考虑到红外图像像素值普遍偏低,卷积操作是某一区域内像素值的加权和,而最大池化返回某一区域内像素的最大值。在像素值普遍偏低的情况下,最大值往往代表着最具有信息的部分,与卷积相比最大池化有着更好特征提取能力。
网络结构中,传统的多尺度网络通常会最大化下采样次数,以更好的采集到多层级信息,导致更多的参数量和更长的训练时间。本发明提出的多层级网络只对输入图进行了两次的下采样操作,对比目前最优的彩色化网络有20%~30%的参数量减少和25%左右的速度提升。
在空间注意力机制中,采用最大池化进行特征的提取。空间注意力机制一般采用最大池化和平均池化来进行特征的提取,然而平均池化对于红外图像的特征提取能力有限,反而会导致模型复杂度的增加。单独使用基于最大池化的空间注意力机制即可在红外图像彩色化应用中取得较好的处理效果。
在损失函数中,添加边缘损失以增强彩色化红外图像的结构信息;添加感知损失增强彩色化红外图像的视觉感质量。
实施例
参考图1-5,本发明提出的基于注意力机制的红外图像着色方法主要包括特征提取、特征融合和生成着色图像等三个步骤:
1)图1是本发明的整体框架示意图。完成红外图像着色任务的神经网络模型输入是红外图像Iin,输出是着色图像Iout。在训练过程中,输入红外图像与真实彩色图像是对准的。该网络将学习一个函数(模型)f满足下列关系:
f(Iin)=Iout
具体地,网络首先经过三次下采样卷积模块从原始输入红外图像Iin中提取四个不同分辨率的高维特征信息F1,F2、F3和F4,然后通过注意力模块将F1、F2、F3和F4改善后与上采样模块中对应分辨率的高维特征信息连结起来,最终利用连结后的高维特征信息预测出着色图像。如图1所示,本发明的整体模型主要包括特征提取f1、特征融合f2和生成彩色图像f3等三个模块。
2)特征提取f1:f1采用一系列下采样卷积模块学习Iin的高维特征表示F1、F2、F3和F4,可表达为F1,F2,F3,F4=f1(Iin)。首先,输入红外图像的大小1×H×W,经过一个预处理模块后得到一个大小为64×H×W的特征图F1;此后该特征图经过一个下采样卷积模块后,得到第一个高维特征信息F2,其大小为128×H/2×W/2;接着F2经过第二个下采样卷积模块得到F3,其大小为256×H/4×W/4;最终,F3通过第三个下采样卷积模块得到F4,大小为512×H/8×W/8。每个特征提取过程的运算如下:
F1=gpre(Iin)
F2=g1(F1)
F3=g2(F2)
F4=g3(F3)
其中gpre表示预处理卷积操作,g1、g2和g3表示第一、二和三个下采样卷积模块。
3)特征融合f2:基于注意力机制的特征过程可表示如下:
Fout=gatt(F),F∈F1,F2,F3,F4
其中,Fout表示特征融合的输出。特征融合具体过程为:将特征提取阶段产生的特征图F1、F2、F3和F4作为输入,通过注意力模块和多核感知模块对特征图进行改善后输出与输入同大小的特征图。具体过程为,对于特征图F1,首先经过两组注意力模块对特征图进行改善,再经过多核感知模块提取出更丰富的细节信息,最后经过两组注意力模块得到输出F1_out;对于F2_out、F3_out和F4_out,为了减少参数量并加速训练,只通过注意力模块对其进行改善,特别地,相应的注意力模块的个数为4、2和1。
4)生成彩色图像f3:改善后的特征图F1_out、F2_out、F3_out和F4_out有着不同的分辨率,为了融合其中的信息,依次从低分辨率的特征图逐步上采样到高分辨率,具体步骤如下。首先,特征图F4_out通过上采样卷积模块生成与F3_out同尺寸的特征图并与F3_out连结起来生成特征图F3_final;此后连接起来的总特征图经过上采样卷积模块生成与F2_out同尺寸的特征图并与F2_out连结起来生成特征图F2_final;最终F2_out通过上采样卷积模块生成与F1_out同尺寸的特征图并与F1_out连结起来生成特征图F1_final,F1_final通过输出模块生成最终的着色图像Iout。
虽然,上文中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (1)
1.基于注意力机制的多尺度神经网络红外图像彩色化方法,其特征在于,包括以下步骤:
1)从数据库中获取成对的红外图像和彩色图像,进行图像预处理后分为训练集和测试集;
2)构建基于注意力机制的多尺度神经网络模型,将训练集输入该基于注意力机制的多尺度神经网络模型进行训练;具体实现方法如下:
所述基于注意力机制的多尺度神经网络模型是从输入端到输出端的映射函数F(XN ×H×W;θ),θ={θ1,θ2,…,θn},θ1表示第一层的参数,n表示多尺度神经网络的总层数,XN×H×W表示输入图像,N,H,W分别为输入图像的维度,高度和宽度,损失函数为:
其中,x,y分别表示输入红外图像和对应的彩色图,Lpixel,Ledge,Lperceptual分别为像素损失、边缘损失和感知损失,x′,y′分别表示利用拉普拉斯边缘算子得到的红外图像边缘图和对应的彩色图边缘图,ti(x)和ti(y)分别表示红外图像和彩色图通过预训练的VGG19模型得到的特征图,∈为常数,且∈=10-3;
基于注意力机制的多尺度神经网络模型的训练是以取得损失函数L(x,y)的最优值来估计映射函数F中的参数θ的最优值θ′;
取得损失函数L(x,y)的最优值来估计映射函数F中的参数θ的最优值θ′具体为:
其中,l和i分别是卷积层的索引和迭代次数,η是学习率,是在第i次迭代时损失函数L(x,y)对第l层的偏导数,经过多尺度神经网络模型中参数多次的迭代更新,损失函数达到最小,此时模型中的参数就是映射函数F中参数θ的最优值θ′;
所述基于注意力机制的多尺度神经网络模型包括特征提取和特征融合;
特征提取包括多个卷积操作以对输入图像进行下采样并使得通道维度加大,同时对图像特征进行提取得到特征图像,公式为:
其中,N,H,W分别为输入图像的维度,高度和宽度;表示通过特征提取得到的图像,N′,W′,H′表示输出图像的维度,高度和宽度;θ1表示特征提取过程中的参数;
特征融合是对特征图像进行上采样并逐步使得通道的维度减少,最后生成一个三维的彩色化图像,公式为:
其中,θ2为在特征融合中的参数,Y1为生成的彩色化图像,Wo,Ho分别表示输出图像的高度和宽度;
通过使用自适应矩估计的梯度优化方法,提高基于注意力机制的多尺度神经网路的收敛速度,给定超参数0≤β1,β2≤1,给定时间步为t,动量vt即小批量随机梯度gt的指数移动平均:
mt=η[β1mt-1+(1-β1)gt]
其中,η表示学习率,mt和vt分别表示梯度的一阶矩和二阶矩,在迭代的阶段,mt和vt的偏移矫正公式为:
并根据如上的公式对各个参数μt进行更新:
其中β1,β2和∈为预设的参数,μ表示模型中的参数,μt为第t个步长中μ的值,m′t和v′t分别为经过偏移矫正后的梯度的一阶矩和二阶矩的估计值;
基于注意力机制的多尺度神经网络中的注意力机制,包括如下:
通道注意力机制:
其中,σ表示Sigmoid激活函数,F为通道注意力模块的输入,表示点乘操作,Maxpool为最大池化操作,/>为最大池化层的输出,/> 是两个权重矩阵的参数;
空间注意力机制:
Mc(F)=σ(f7×7(Avgpool(F),Maxpool(F)))
其中f7×7为卷积核大小的卷积操作,为空间注意力模型的输出;
3)将测试集输入训练好的基于注意力机制的多尺度神经网络模型进行测试,得到基于注意力机制的多尺度神经网络模型的新能和客观指标评估;具体实现方法如下:
进行测试得到的基于注意力机制的多尺度神经网络模型的性能和客观指标评价,包括如下:
其中μx,μy分别表示图像x和y的均值和方差,分别表示图像x和y的标准差,σxy表示图像x和y的协方差,C1和C2为常数;
4)将待处理的红外图像输入测试通过的基于注意力机制的多尺度神经网络模型,则输出彩色化图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210199669.2A CN114581560B (zh) | 2022-03-01 | 2022-03-01 | 基于注意力机制的多尺度神经网络红外图像彩色化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210199669.2A CN114581560B (zh) | 2022-03-01 | 2022-03-01 | 基于注意力机制的多尺度神经网络红外图像彩色化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114581560A CN114581560A (zh) | 2022-06-03 |
CN114581560B true CN114581560B (zh) | 2024-04-16 |
Family
ID=81772110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210199669.2A Active CN114581560B (zh) | 2022-03-01 | 2022-03-01 | 基于注意力机制的多尺度神经网络红外图像彩色化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581560B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115147375B (zh) * | 2022-07-04 | 2023-07-25 | 河海大学 | 基于多尺度注意力的混凝土表面缺陷特征检测方法 |
CN115115610B (zh) * | 2022-07-20 | 2023-08-22 | 南京航空航天大学 | 基于改进卷积神经网络的工业ct识别复材内部缺陷方法 |
CN115908199A (zh) * | 2022-12-28 | 2023-04-04 | 无锡学院 | 基于深度去噪器的压缩红外图像复原方法 |
CN115908617B (zh) * | 2023-01-09 | 2024-06-07 | 长春理工大学 | 一种红外图像彩色化方法及系统 |
CN116485934A (zh) * | 2023-04-28 | 2023-07-25 | 长春理工大学重庆研究院 | 一种基于CNN和ViT的红外图像彩色化方法 |
CN116740211B (zh) * | 2023-06-15 | 2024-01-30 | 云南大学 | 一种面向边缘设备的近红外图像彩色化方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062569A (zh) * | 2017-12-21 | 2018-05-22 | 东华大学 | 一种基于红外和雷达的无人车驾驶决策方法 |
JP6830707B1 (ja) * | 2020-01-23 | 2021-02-17 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN113283529A (zh) * | 2021-06-08 | 2021-08-20 | 南通大学 | 一种面向多模态图像能见度检测的神经网络构建方法 |
CN113642634A (zh) * | 2021-08-12 | 2021-11-12 | 南京邮电大学 | 一种基于混合注意力的阴影检测方法 |
CN114067018A (zh) * | 2021-11-19 | 2022-02-18 | 长春理工大学 | 一种基于扩张残差生成对抗网络的红外图像彩色化方法 |
CN114092330A (zh) * | 2021-11-19 | 2022-02-25 | 长春理工大学 | 一种轻量化多尺度的红外图像超分辨率重建方法 |
-
2022
- 2022-03-01 CN CN202210199669.2A patent/CN114581560B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062569A (zh) * | 2017-12-21 | 2018-05-22 | 东华大学 | 一种基于红外和雷达的无人车驾驶决策方法 |
JP6830707B1 (ja) * | 2020-01-23 | 2021-02-17 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN113283529A (zh) * | 2021-06-08 | 2021-08-20 | 南通大学 | 一种面向多模态图像能见度检测的神经网络构建方法 |
CN113642634A (zh) * | 2021-08-12 | 2021-11-12 | 南京邮电大学 | 一种基于混合注意力的阴影检测方法 |
CN114067018A (zh) * | 2021-11-19 | 2022-02-18 | 长春理工大学 | 一种基于扩张残差生成对抗网络的红外图像彩色化方法 |
CN114092330A (zh) * | 2021-11-19 | 2022-02-25 | 长春理工大学 | 一种轻量化多尺度的红外图像超分辨率重建方法 |
Non-Patent Citations (1)
Title |
---|
基于注意力残差卷积网络的视频超分辨率重构;董猛;吴戈;曹洪玉;景文博;于洪洋;;长春理工大学学报(自然科学版)(01);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114581560A (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114581560B (zh) | 基于注意力机制的多尺度神经网络红外图像彩色化方法 | |
CN110738697B (zh) | 基于深度学习的单目深度估计方法 | |
Zhang et al. | Breeds classification with deep convolutional neural network | |
Li et al. | Single image dehazing via conditional generative adversarial network | |
CN111950649B (zh) | 基于注意力机制与胶囊网络的低照度图像分类方法 | |
CN114187331B (zh) | 一种基于Transformer特征金字塔网络的无监督光流估计方法 | |
CN113792641B (zh) | 一种结合多谱注意力机制的高分辨率轻量级的人体姿态估计方法 | |
CN113362242B (zh) | 基于多特征融合网络的图像修复方法 | |
CN111986085B (zh) | 一种基于深度反馈注意力网络系统的图像超分辨率方法 | |
CN114048822A (zh) | 一种图像的注意力机制特征融合分割方法 | |
CN106339996A (zh) | 一种基于超拉普拉斯先验的图像盲去模糊方法 | |
CN117079098A (zh) | 一种基于位置编码的空间小目标检测方法 | |
CN112149802B (zh) | 一种语义结构一致的图像内容转换方法 | |
CN117456330A (zh) | 一种基于MSFAF-Net的低照度目标检测方法 | |
Guo et al. | D3-Net: Integrated multi-task convolutional neural network for water surface deblurring, dehazing and object detection | |
CN116258632A (zh) | 一种基于文本辅助的文本图像超分辨率重建方法 | |
CN113706404B (zh) | 一种基于自注意力机制的俯角人脸图像校正方法及系统 | |
CN115049739A (zh) | 一种基于边缘检测的双目视觉立体匹配方法 | |
CN114881858A (zh) | 基于多注意力机制融合的轻量级双目图像超分辨率方法 | |
Long | A face recognition algorithm based on intermediate layers connected by the CNN | |
Zhu et al. | HDRD-Net: High-resolution detail-recovering image deraining network | |
CN116228576A (zh) | 基于注意力机制与特征增强的图像去雾方法 | |
CN115115860A (zh) | 一种基于深度学习的图像特征点检测匹配网络 | |
CN115131637A (zh) | 基于生成对抗网络的多级特征时空遥感图像融合方法 | |
CN115100486B (zh) | 智慧医疗场景下时间相关特征挖掘的中草药识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |