CN112348036A - 基于轻量化残差学习和反卷积级联的自适应目标检测方法 - Google Patents
基于轻量化残差学习和反卷积级联的自适应目标检测方法 Download PDFInfo
- Publication number
- CN112348036A CN112348036A CN202011342607.XA CN202011342607A CN112348036A CN 112348036 A CN112348036 A CN 112348036A CN 202011342607 A CN202011342607 A CN 202011342607A CN 112348036 A CN112348036 A CN 112348036A
- Authority
- CN
- China
- Prior art keywords
- feature map
- target
- feature
- network
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 43
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 238000012937 correction Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims description 2
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于轻量化残差网络和反卷积级联的自适应目标检测方法,包括以下步骤:获取图像训练数据集和测试数据集;通过结合深度可分离卷积和残差学习的轻量化残差网络来提取待检测图像的深层次特征,获得目标的深层次表达;采用1x1卷积对提取到的不同层级特征图固定输出特征图维度;利用反卷积级联结构增大深层级特征图分辨率以实现与其前一层特征图的空间尺寸一致;利用语义特征指导候选区域生成网络在多尺度特征图上自适应生成与真实目标更加匹配的目标候选框;最后对生成的目标候选框Anchor进行修正。本发明有效的提高了目标检测的精确性,能够在复杂条件下快速准确地检测目标,有效提高目标检测的实时性。
Description
技术领域
本发明涉及一种目标检测方法,属于数字图像处理、深度学习、人工智能领域,特别设计一种基于轻量化残差学习和反卷积级联的自适应目标检测方法。
背景技术
随着计算机视觉技术的快速发展,目标检测技术已成为人工智能和计算机视觉领域的研究热点,被广泛应用到军事和民用领域。目标检测主要针对视频图像序列中一种或者多种特定目标,对其进行识别与定位。在多数情况下,视频图像采集设备包含丰富的视觉内容,虽然能提供更全面的场景信息,但是待检测的目标在图像或视频中通常尺度变化较大、分布集中、存在遮挡,且没有足够的检测细节,这导致了目前的目标检测算法无法有效提取目标特征,精准定位目标位置。因此,准确高效地检测目标对象是目标检测任务的关键问题之一。
近年来,基于深度学习的目标检测技术取得了巨大成功,不少学者开始研究利用深度学习方法进行目标检测。当前主流的目标检测算法主要分为两类,一类是基于回归方法的单阶段目标检测,一类是基于区域候选框的两阶段目标检测。前者主要是以YOLO系列为代表,其检测思路是将检测问题视为对目标位置和目标类别信息的回归分析问题,通过卷积神经网络直接输出检测结果;后者主要以R-CNN系列为代表,顾名思义。该方法将目标检测过程分为两个主要阶段,候选区域提取模块是第一个部分,通过主流的骨干网提取网络特征,用于检测背景和前景区域,第二个阶段则是对候选区域进行分类和坐标修正,完成目标的准确检测。前者虽然速度较快,但是精度却不尽如人意;后者由于需要进行两次卷积网络运算,这无疑会导致两阶段检测网络有较高的检测精度,但是在一定程度上降低了检测速度。然而随着卷积神经网络的发展,各种轻量化骨干网(如ShuffleNet、MobileNet等)、卷积方式(如深度卷积、可分离卷积、点卷积等)以及不同的连接方式(比如SkipConnection等)的出现,使得网络复杂度和计算复杂度不断降低,同时,硬件设备不断发展,也为目标检测速度的提升奠定了基础。此外,随着卷积神经网络的广泛应用,反卷积也随之进入人们的视线,反卷积作为卷积的逆过程,能有效的解决深层卷积操作带来特征图分辨率降低、特征丢失等问题,是进行多尺度特征融合的一种重要的手段。
现有的方法存在的不足:一方面,传统的经典目标检测算法受限于人工设计的手工特征和选择性搜索算法,导致目标检测精度低、检测速度慢,算法鲁棒性差;另一方面,基于深度学习的目标检测虽然精度有所提升,但是卷积神经网络存在大量参数,算法结构复杂度高,计算量大,很难满足实时性需求。
发明内容
本发明旨在解决上述缺陷,提出了一种基于轻量化残差学习和反卷积级联的自适应目标检测算法。结合残差学习的优点并将普通卷积操作分成深度卷积层和点卷积层两部分用于压缩网络参数,提高网络的计算效率。之后,在轻量化残差网络的基础上构建多尺度自适应候选区域生成网络,通过反卷积级联结构在低层特征图中加权融入高层语义特征,增强了特征对目标的表达能力,并采用多层级不同尺度特征图用于目标预测,根据图像特征预测候选框的位置和形状,来生成稀疏且形状任意的候选框,从而达到较好的目标检测性能。
为了达到上述目的,本发明提出一种基于轻量化残差学习和反卷积级联的自适应目标检测方法,包括以下步骤:
S1:通过图像采集设备采集数据,获取图像训练数据集和测试数据集;
S2:构建轻量化深度残差网络,输入S1中的图像训练数据集和测试数据集,进行特征提取;
S3:选取轻量化残差网络中后四个层级中提取到的特征图,用1x1卷积固定输出特征图维度;
S4:构建多尺度自适应候选区域生成网络,由于不同层级网络得到的特征图尺寸不同,前一层特征图尺寸大于当前层特征图,为了将不同层级特征图融合,将S3中提取到的不同尺寸的特征图利用反卷积级联结构增大特征图的分辨率,实现与其前一层特征图的空间尺寸一致,并将特征图按照通道维度进行加权融合操作,采用候选区域生成网络产生预测目标框和类别信息;
S5:通过自适应候选区域生成的预测目标框的位置和类别信息,采用如下公式的多任务损失函数进行位置修正和类别回归;
L=Lcls+Lreg+β1Lloc+β2Lshape (1)
其中,L为算法总的损失函数,Lcls表示在对特征进行分类时的分类损失函数,Lreg表示在进行位置回归时的回归损失函数,Lloc表示对目标定位时的定位损失,Lshape表示目标检测框的形状损失,β1和β2分别表示多任务损失函数的加权系数,分别取1和0.1。
有益效果
根据本发明实施例的基于轻量化残差学习和反卷积级联的自适应目标检测,本方法在特征提取方面,采用了轻量化残差网络进行特征提取,通过深度可分离卷积结合残差学习的优点建立了轻量化特征提取网络,然后根据反卷积级联进行特征融合,构建多尺度自适应候选区域生成网络,实现不同层级特征图的空间尺寸一致,并进行加权融合操作,最后利用语义特征指导网络来自适应生成与真实目标更加匹配目标候选框。仿真实验表明,本发明能有效提取视频图像序列中的目标特征,增强了特征对目标的表达能力,能够在遮挡、尺度变化、小目标的条件下快速准确的识别与定位目标,具有很高的精度和鲁棒性,同时,轻量化网络大大减少了计算量,满足检测实时性。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得更容易理解,其中:
图1为本发明实施例的基于轻量化残差学习和反卷积级联的自适应目标检测方法的流程图,以及
图2为本发明的一个实施例的轻量化残差网络示意图,以及
图3为本发明一个实施例的反卷积级联结构的多尺度特征融合示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的原件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,根据本发明基于轻量化残差学习和反卷积级联的自适应目标检测方法,包括以下几个步骤:
S1:通过图像采集设备采集数据,获取图像训练数据集和测试数据集;
S1.1:对数据集中的样本通过裁剪、翻转、旋转、尺度变换等预处理,扩充数据集;
S1.2:提取每个图像中的正负样本,对待检测的正样本进行标注,用矩形框标出每个目标的位置和类别;
S2:构建轻量化深度残差网络,输入训练数据集,进行特征提取;
具体分为一下几个步骤:
S2.1:将训练数据集输入到轻量化残差网络中,对图像进行深度可分离卷积;
1)对输入图像进行深度卷积,将输入图像特征F的N个通道中的每一个通道单独分配一个卷积核,每个卷积核只负责对该通道的图像特征进行卷积操作,其中卷积核大小与标准卷积的卷积核大小一致,个数为N,步长为1,包含padding操作;
2)将上一步中的通过深度卷积得到的特征图进行点卷积,卷积核尺寸为1×1,个数为L,得到指定通道维度的特征图;
S2.2:通过跳跃连接(Skip Connection)的方式连接浅层网络与深层网络,将经过卷积过后的不同层级的特征图的特征信息进行融合,相当于把底层的特征信息融合到高层中;
S3:选取轻量化残差网络中后四个层级中的特征图,用1x1卷积固定输出特征图维度;
S4:构建多尺度自适应候选区域生成网络,利用反卷积级联结构增大深层级特征图的分辨率,实现与其前一层特征图的空间尺寸一致,并将空间尺寸一致的特征图按照通道维度进行加权融合操作,采用候选区域生成网络产生预测目标框和类别信息;
具体分为以下几个步骤:
S4.1:选择轻量化残差网络中的多级特征映射{C2、C3、C4、C5},对应于每个网络级最后一层的输出;
S4.2:在高级特征图P5(由C5经过1x1卷积得到)上使用反卷积运算使得特征图大小与C4一致,然后将它与相应的前级特征图C4加权融合,得到一个新的特征图P4。
S4.3:重复S4.2过程,直到生成与C2大小一致的特征图P2,拥有更多小目标的细节特征信息。因此本文在相同权值直接相加的基础之上,额外为6个不同的特征图分配加权数,加权融合公式为:
其中D(·)为反卷积转化函数,α1、α2、α3、α4、α5和α6表示权重系数,取值分别为0.7,0.3,0.6,0.4,0.45,0.55,为避免特征信息冗余,各层融合的权重系数之和为1。
S4.4:将经过反卷积级联特征融合后的特征图输入到自适应候选区域生成网络中得到Anchor的中心位置和形状,具体步骤如下;
1)根据图像特征自适应生成的Anchor形状是根据位置的不同而变化的,采用Anchor特征自适应分支网络NT将特征进行转化,使得较大Anchor的特征要编码较大区域内容,较小的Anchor特征能够抽取较小区域的内容,该分支网络采用3×3的可变形卷积层来实现。
fi'=NT(fi,wi,hi) (3)
其中fi是第i个位置的特征,wi,hi是对应的Anchor形状。即先从形状预测分支的输出来预测偏移量,之后在原始特征图上使用可变形卷积来获得fi'。
2)Anchor的中心预测分支网络NL产生一个与输入特征图FI相同尺寸大小的概率图,P(i,j|FI)表明在特征图(i,j)位置可能出现目标物体的概率,对应与图像I中的坐标[(i+1/2)s,(j+1/2)s],其中s是特征图的步长。NL分支网络使用1x1的卷积网络来获得目标的置信图,之后利用sigmoid函数将其转化为概率值。根据生成的概率图,通过选择相应的概率值大于预先定义的阈值的位置(对比实验中取值为0.05),从而确定目标可能存在的区域;
3)在确定目标的可能位置之后,通过形状预测分支NS网络分支包含一个1×1大小的卷积层,可以产生两通道映射,包含dw和dh的值。输入特征图FI,形状预测分支将预测每个位置的最佳形状(w,h),因为w和h的范围可能很大,所以经过公式(6)的变换,形状预测分支会输出dw和dh,这两个值可以映射出w和h,其中s为步长,λ是经验尺度因子(本实验中取值为8)。该非线性变换映射可以将[0,1000]映射到[-1,1],使得形状预测分支计算更加简单和稳定。
S5:通过自适应候选区域生成的预测目标框的位置和类别,采用如下公式的多任务损失函数进行位置修正和类别回归;
L=Lcls+Lreg+β1Lloc+β2Lshape (5)
其中Lcls和Lreg分别表示传统网络中的分类损失和回归损失,Lshape和Lloc分别为新增加的anchor定位损失和anchor形状损失。
具体分为以下步骤:
S5.1:得到真实目标框(xg,yg,wg,hg)的特征映射(x′g,y′g,w′g,h′g),采用交叉熵损失函数和均方误差函数分别得到分类损失和回归损失,之后在目标特征映射区域内定义两个区域(x′g,y′g,δ1w′g,δ1h′g)和(x′g,y′g,δ2w′g,δ2h′g),δ1、δ2取值分别为0.2和0.5。(x′g,y′g,δ1w′g,δ1h′g)为中心区域,(x′g,y′g,δ2w′g,δ2h′g)以内不含中心区域的位置为忽略区域,其余部分为外围区域。
S5.2:把中心区域作为正样本,外围区域作为负样本,利用Focal Loss来训练定位分支Lloc;
S5.3:训练形状预测分支,采用以下IOU计算方式:
vIOU(awh,G)=maxIOU(awh,G) (6)
其中IOU(·)是传统IOU的定义,G代表真实目标框,awh表示anchor变量,枚举9对常见的不同比例和大小的anchor作为awh,并使用最大值作为最终的vIOU(awh,G)。确定目标框anchor的形状损失Lshape,如下公式(7)所示,其中l1为smoothL1损失函数,(w,h)和(wg,hg)分别表示预测的anchor形状和对应的真实目标形状。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改替换和变形,本发明的范围有所附权利要求及其等同限定。
Claims (5)
1.基于轻量化残差学习和反卷积级联的自适应目标检测方法,其特征在于:
S1:通过图像采集设备采集数据,获取图像训练数据集和测试数据集;
S2:构建轻量化深度残差网络,输入S1中的图像训练数据集和测试数据集,进行特征提取;
S3:选取轻量化残差网络中后四个层级中提取到的特征图,用1x1卷积固定输出特征图维度;
S4:构建多尺度自适应候选区域生成网络,由于不同层级网络得到的特征图尺寸不同,前一层特征图尺寸大于当前层特征图,为了将不同层级特征图融合,将S3中提取到的不同尺寸的特征图利用反卷积级联结构增大特征图的分辨率,实现与其前一层特征图的空间尺寸一致,并将特征图按照通道维度进行加权融合操作,采用候选区域生成网络产生预测目标框和类别信息;
S5:通过自适应候选区域生成的预测目标框的位置和类别信息,采用如下公式的多任务损失函数进行位置修正和类别回归;
L=Lcls+Lreg+β1Lloc+β2Lshape (1)
其中,L为算法总的损失函数,Lcls表示在对特征进行分类时的分类损失函数,Lreg表示在进行位置回归时的回归损失函数,Lloc表示对目标定位时的定位损失,Lshape表示目标检测框的形状损失,β1和β2分别表示多任务损失函数的加权系数,分别取1和0.1。
2.根据权利要求1所述的基于轻量化残差学习和反卷积级联的自适应目标检测方法,其特征在于:
S1中,通过图像采集设备采集数据,获取图像训练数据集和测试数据集;
S1.1:对数据集中的样本通过裁剪、翻转、旋转、尺度变换预处理,扩充数据集;
S1.2:提取每个图像中的正负样本,对待检测的正样本进行标注,用矩形框标出每个目标的位置和类别。
3.根据权利要求1所述的基于轻量化残差学习和反卷积级联的自适应目标检测方法,其特征在于:S2中,构建轻量化深度残差网络,输入训练数据集,进行特征提取;
具体分为以下几个步骤:
S2.1:将训练数据集输入到轻量化残差网络中,对图像进行深度可分离卷积;
1)对输入图像进行深度卷积,将输入图像特征F的N个通道中的每一个通道单独分配一个卷积核,每个卷积核只负责对该通道的图像特征进行卷积操作,其中卷积核大小与标准卷积的卷积核大小一致,个数为N,步长为1,包含padding操作;
2)将上一步中的通过深度卷积得到的特征图进行点卷积,卷积核尺寸为1×1,个数为L,得到指定通道维度的特征图;
S2.2:通过跳跃连接的方式连接浅层网络与深层网络,将经过卷积过后的不同层级的特征图的特征信息进行融合,相当于把底层的特征信息融合到高层中。
4.根据权利要求1所述的基于轻量化残差学习和反卷积级联的自适应目标检测方法,其特征在于:
S4中,构建多尺度自适应候选区域生成网络,利用反卷积级联结构增大深层级特征图的分辨率,实现与其前一层特征图的空间尺寸一致,并将空间尺寸一致的特征图按照通道维度进行加权融合操作,采用候选区域生成网络产生预测目标框和类别信息;
具体分为以下几个步骤:
S4.1:选择轻量化残差网络中的多级特征映射{C2、C3、C4、C5},对应于每个网络级最后一层的输出;
S4.2:在高级特征图P5(由C5经过1x1卷积得到)上使用反卷积运算使得特征图大小与C4一致,然后将它与相应的前级特征图C4加权融合,得到一个新的特征图P4;
S4.3:重复S4.2过程,直到生成与C2大小一致的特征图P2,拥有更多小目标的细节特征信息;因此本文在相同权值直接相加的基础之上,额外为6个不同的特征图分配加权数,加权融合公式为:
其中D(·)为反卷积转化函数,α1、α2、α3、α4、α5和α6表示权重系数,取值分别为0.7,0.3,0.6,0.4,0.45,0.55,为避免特征信息冗余,各层融合的权重系数之和为1;
S4.4:将经过反卷积级联特征融合后的特征图输入到自适应候选区域生成网络中得到Anchor的中心位置和形状,具体步骤如下;
1)根据图像特征自适应生成的Anchor形状是根据位置的不同而变化的,采用Anchor特征自适应分支网络NT将特征进行转化,分支网络采用3×3的可变形卷积层来实现;
fi'=NT(fi,wi,hi)
其中fi是第i个位置的特征,wi,hi是对应的Anchor形状;即先从形状预测分支的输出来预测偏移量,之后在原始特征图上使用可变形卷积来获得fi';
2)Anchor的中心预测分支网络NL产生一个与输入特征图FI相同尺寸大小的概率图,P(i,j|FI)表明在特征图(i,j)位置可能出现目标物体的概率,对应与图像I中的坐标[(i+1/2)s,(j+1/2)s],其中s是特征图的步长;NL分支网络使用1x1的卷积网络来获得目标的置信图,之后利用sigmoid函数将其转化为概率值;根据生成的概率图,通过选择相应的概率值大于预先定义的阈值的位置,从而确定目标可能存在的区域;
3)在确定目标的可能位置之后,通过形状预测分支NS网络分支包含一个1×1大小的卷积层,产生两通道映射,包含dw和dh的值;输入特征图FI,形状预测分支将预测每个位置的最佳形状(w,h),因为w和h的范围可能很大,所以经过变换,形状预测分支会输出dw和dh,这两个值可以映射出w和h,其中s为步长,λ是经验尺度因子;
5.根据权利要求1所述的基于轻量化残差学习和反卷积级联的自适应目标检测方法,其特征在于:S5中,通过自适应候选区域生成的预测目标框的位置和类别,采用如下公式的多任务损失函数进行位置修正和类别回归;
L=Lcls+Lreg+β1Lloc+β2Lshape
其中Lcls和Lreg分别表示传统网络中的分类损失和回归损失,Lshape和Lloc分别为新增加的anchor定位损失和anchor形状损失;
具体分为以下步骤:
S5.1:得到真实目标框(xg,yg,wg,hg)的特征映射(x′g,y′g,w′g,h′g),采用交叉熵损失函数和均方误差函数分别得到分类损失和回归损失,之后在目标特征映射区域内定义两个区域(x′g,y′g,δ1w′g,δ1h′g)和(x′g,y′g,δ2w′g,δ2h′g),δ1、δ2取值分别为0.2和0.5;(x′g,y′g,δ1w′g,δ1h′g)为中心区域,(x′g,y′g,δ1w′g,δ1h′g)为中心区域,(x′g,y′g,δ2w′g,δ2h′g)以内不含中心区域的位置为忽略区域,其余部分为外围区域;
S5.2:把中心区域作为正样本,外围区域作为负样本,利用Focal Loss来训练定位分支Lloc;
S5.3:训练形状预测分支,采用以下IOU计算方式:
vIOU(awh,G)=maxIOU(awh,G)
其中IOU(·)是IOU的定义,G代表真实目标框,awh表示anchor变量,枚举9对常见的不同比例和大小的anchor作为awh,并使用最大值作为最终的vIOU(awh,G);确定目标框anchor的形状损失Lshape,l1为smooth L1损失函数,(w,h)和(wg,hg)分别表示预测的anchor形状和对应的真实目标形状;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011342607.XA CN112348036B (zh) | 2020-11-26 | 2020-11-26 | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011342607.XA CN112348036B (zh) | 2020-11-26 | 2020-11-26 | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112348036A true CN112348036A (zh) | 2021-02-09 |
CN112348036B CN112348036B (zh) | 2025-01-14 |
Family
ID=74365696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011342607.XA Active CN112348036B (zh) | 2020-11-26 | 2020-11-26 | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112348036B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926605A (zh) * | 2021-04-01 | 2021-06-08 | 天津商业大学 | 一种自然场景下多阶段草莓果实快速检测方法 |
CN113486718A (zh) * | 2021-06-08 | 2021-10-08 | 天津大学 | 一种基于深度多任务学习的指尖检测方法 |
CN113486979A (zh) * | 2021-07-28 | 2021-10-08 | 佛山市南海区广工大数控装备协同创新研究院 | 基于关键点的轻量级目标检测方法 |
CN113554131A (zh) * | 2021-09-22 | 2021-10-26 | 四川大学华西医院 | 医学图像处理和分析方法、计算机设备、系统和存储介质 |
CN113705600A (zh) * | 2021-03-12 | 2021-11-26 | 深圳市腾讯计算机系统有限公司 | 特征图确定方法、装置、计算机设备及存储介质 |
CN113822185A (zh) * | 2021-09-09 | 2021-12-21 | 安徽农业大学 | 一种群养生猪日常行为检测方法 |
CN113887615A (zh) * | 2021-09-29 | 2022-01-04 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备和介质 |
CN113989709A (zh) * | 2021-10-27 | 2022-01-28 | 中国电信股份有限公司 | 目标检测方法及装置、存储介质、电子设备 |
CN114022705A (zh) * | 2021-10-29 | 2022-02-08 | 电子科技大学 | 一种基于场景复杂度预分类的自适应目标检测方法 |
CN114170526A (zh) * | 2021-11-22 | 2022-03-11 | 中国电子科技集团公司第十五研究所 | 基于轻量化网络的遥感影像多尺度目标检测识别方法 |
CN114267028A (zh) * | 2021-12-22 | 2022-04-01 | 首都师范大学 | 一种内容自适应的多层次道路标志检测及识别方法 |
CN114757864A (zh) * | 2022-04-21 | 2022-07-15 | 西安交通大学 | 一种基于多尺度特征解耦的多层级细粒度图像生成方法 |
CN114842189A (zh) * | 2021-11-10 | 2022-08-02 | 北京中电兴发科技有限公司 | 一种用于目标检测的自适应Anchor生成方法 |
CN114936983A (zh) * | 2022-06-16 | 2022-08-23 | 福州大学 | 基于深度级联残差网络的水下图像增强方法及系统 |
CN115393682A (zh) * | 2022-08-17 | 2022-11-25 | 龙芯中科(南京)技术有限公司 | 目标检测方法、装置、电子设备及介质 |
CN115526886A (zh) * | 2022-10-26 | 2022-12-27 | 中国铁路设计集团有限公司 | 基于多尺度特征融合的光学卫星影像像素级变化检测方法 |
CN116229415A (zh) * | 2023-01-28 | 2023-06-06 | 西安电子科技大学 | 基于目标重采样的单阶段三维点云目标检测方法 |
CN116580184A (zh) * | 2023-05-06 | 2023-08-11 | 长春理工大学 | 一种基于YOLOv7的轻量化模型 |
CN118170153A (zh) * | 2024-05-09 | 2024-06-11 | 鹰驾科技(深圳)有限公司 | 一种基于360环视摄像头辅助的无人机边缘计算处理方法 |
CN116229415B (zh) * | 2023-01-28 | 2025-07-29 | 西安电子科技大学 | 基于目标重采样的单阶段三维点云目标检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109948607A (zh) * | 2019-02-21 | 2019-06-28 | 电子科技大学 | 基于深度学习反卷积网络的候选边框生成和目标检测方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
-
2020
- 2020-11-26 CN CN202011342607.XA patent/CN112348036B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109948607A (zh) * | 2019-02-21 | 2019-06-28 | 电子科技大学 | 基于深度学习反卷积网络的候选边框生成和目标检测方法 |
Non-Patent Citations (1)
Title |
---|
刘芳,等: "基于多尺度特征融合的自适应无人机目标检测", 《光学学报》, vol. 40, no. 10, 25 May 2020 (2020-05-25), pages 1 - 10 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113705600A (zh) * | 2021-03-12 | 2021-11-26 | 深圳市腾讯计算机系统有限公司 | 特征图确定方法、装置、计算机设备及存储介质 |
CN112926605B (zh) * | 2021-04-01 | 2022-07-08 | 天津商业大学 | 一种自然场景下多阶段草莓果实快速检测方法 |
CN112926605A (zh) * | 2021-04-01 | 2021-06-08 | 天津商业大学 | 一种自然场景下多阶段草莓果实快速检测方法 |
CN113486718A (zh) * | 2021-06-08 | 2021-10-08 | 天津大学 | 一种基于深度多任务学习的指尖检测方法 |
CN113486718B (zh) * | 2021-06-08 | 2023-04-07 | 天津大学 | 一种基于深度多任务学习的指尖检测方法 |
CN113486979A (zh) * | 2021-07-28 | 2021-10-08 | 佛山市南海区广工大数控装备协同创新研究院 | 基于关键点的轻量级目标检测方法 |
CN113822185A (zh) * | 2021-09-09 | 2021-12-21 | 安徽农业大学 | 一种群养生猪日常行为检测方法 |
CN113554131A (zh) * | 2021-09-22 | 2021-10-26 | 四川大学华西医院 | 医学图像处理和分析方法、计算机设备、系统和存储介质 |
CN113887615A (zh) * | 2021-09-29 | 2022-01-04 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备和介质 |
CN113989709A (zh) * | 2021-10-27 | 2022-01-28 | 中国电信股份有限公司 | 目标检测方法及装置、存储介质、电子设备 |
CN114022705B (zh) * | 2021-10-29 | 2023-08-04 | 电子科技大学 | 一种基于场景复杂度预分类的自适应目标检测方法 |
CN114022705A (zh) * | 2021-10-29 | 2022-02-08 | 电子科技大学 | 一种基于场景复杂度预分类的自适应目标检测方法 |
CN114842189A (zh) * | 2021-11-10 | 2022-08-02 | 北京中电兴发科技有限公司 | 一种用于目标检测的自适应Anchor生成方法 |
CN114842189B (zh) * | 2021-11-10 | 2022-11-04 | 北京中电兴发科技有限公司 | 一种用于目标检测的自适应Anchor生成方法 |
CN114170526A (zh) * | 2021-11-22 | 2022-03-11 | 中国电子科技集团公司第十五研究所 | 基于轻量化网络的遥感影像多尺度目标检测识别方法 |
CN114267028A (zh) * | 2021-12-22 | 2022-04-01 | 首都师范大学 | 一种内容自适应的多层次道路标志检测及识别方法 |
CN114757864B (zh) * | 2022-04-21 | 2024-08-02 | 西安交通大学 | 一种基于多尺度特征解耦的多层级细粒度图像生成方法 |
CN114757864A (zh) * | 2022-04-21 | 2022-07-15 | 西安交通大学 | 一种基于多尺度特征解耦的多层级细粒度图像生成方法 |
CN114936983A (zh) * | 2022-06-16 | 2022-08-23 | 福州大学 | 基于深度级联残差网络的水下图像增强方法及系统 |
CN115393682A (zh) * | 2022-08-17 | 2022-11-25 | 龙芯中科(南京)技术有限公司 | 目标检测方法、装置、电子设备及介质 |
CN115526886B (zh) * | 2022-10-26 | 2023-05-26 | 中国铁路设计集团有限公司 | 基于多尺度特征融合的光学卫星影像像素级变化检测方法 |
CN115526886A (zh) * | 2022-10-26 | 2022-12-27 | 中国铁路设计集团有限公司 | 基于多尺度特征融合的光学卫星影像像素级变化检测方法 |
CN116229415A (zh) * | 2023-01-28 | 2023-06-06 | 西安电子科技大学 | 基于目标重采样的单阶段三维点云目标检测方法 |
CN116229415B (zh) * | 2023-01-28 | 2025-07-29 | 西安电子科技大学 | 基于目标重采样的单阶段三维点云目标检测方法 |
CN116580184A (zh) * | 2023-05-06 | 2023-08-11 | 长春理工大学 | 一种基于YOLOv7的轻量化模型 |
CN118170153A (zh) * | 2024-05-09 | 2024-06-11 | 鹰驾科技(深圳)有限公司 | 一种基于360环视摄像头辅助的无人机边缘计算处理方法 |
CN118170153B (zh) * | 2024-05-09 | 2024-07-19 | 鹰驾科技(深圳)有限公司 | 一种基于360环视摄像头辅助的无人机边缘计算处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112348036B (zh) | 2025-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112348036A (zh) | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 | |
CN111126472B (zh) | 一种基于ssd改进的目标检测方法 | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
CN108549891B (zh) | 基于背景与目标先验的多尺度扩散显著目标检测方法 | |
CN113095409B (zh) | 基于注意力机制和权值共享的高光谱图像分类方法 | |
Wang et al. | Object-scale adaptive convolutional neural networks for high-spatial resolution remote sensing image classification | |
CN111368896A (zh) | 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法 | |
CN112070044B (zh) | 一种视频物体分类方法及装置 | |
CN109949317A (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
CN114758288A (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN111612017A (zh) | 一种基于信息增强的目标检测方法 | |
CN114187311A (zh) | 一种图像语义分割方法、装置、设备及存储介质 | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN116486251A (zh) | 一种基于多模态融合的高光谱图像分类方法 | |
CN111931857A (zh) | 一种基于mscff的低照度目标检测方法 | |
CN114445620B (zh) | 一种改进Mask R-CNN的目标分割方法 | |
CN116824585A (zh) | 一种基于多级上下文特征融合网络的航空激光点云语义分割方法与装置 | |
CN116630700A (zh) | 基于引入通道-空间注意力机制的遥感图像分类方法 | |
CN116452914A (zh) | 一种用于rgb-d显著目标检测的自适应引导融合网络 | |
CN113822134A (zh) | 一种基于视频的实例跟踪方法、装置、设备及存储介质 | |
CN105844299B (zh) | 一种基于词袋模型的图像分类方法 | |
CN118097304A (zh) | 一种基于神经架构搜索的声纳图像分类方法 | |
CN117315556A (zh) | 改进的Vision Transformer昆虫细粒度识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |