[go: up one dir, main page]

CN116402859A - 一种基于航空图像序列的运动目标检测方法 - Google Patents

一种基于航空图像序列的运动目标检测方法 Download PDF

Info

Publication number
CN116402859A
CN116402859A CN202310424573.6A CN202310424573A CN116402859A CN 116402859 A CN116402859 A CN 116402859A CN 202310424573 A CN202310424573 A CN 202310424573A CN 116402859 A CN116402859 A CN 116402859A
Authority
CN
China
Prior art keywords
frame
image
detection
motion
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310424573.6A
Other languages
English (en)
Inventor
刘晶红
王波
朱圣杰
王宣
徐芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Original Assignee
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun Institute of Optics Fine Mechanics and Physics of CAS filed Critical Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority to CN202310424573.6A priority Critical patent/CN116402859A/zh
Publication of CN116402859A publication Critical patent/CN116402859A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,具体提供了一种基于航空图像序列的运动目标检测方法,包括如下步骤:S1:输入航空遥感图像序列;S2:准备待训练影像数据集,先对图像进行裁切得到待训练影像数据集,再根据待训练影像数据集中运动目标已标注的检测框,将训练影像数据集进行聚类为9个固定锚框,代入算法并训练得到模型参数;S3:将第k帧图像输入至目标检测网络中,将第k帧和第k‑n帧图像输入至运动检测网络中,将目标检测网络中和运动检测网络中得到的特征图进行信息融合并得到最终的网络输出。本发明将相邻两帧图像输入网络,可直接获得运动目标的信息,省却了背景补偿步骤,减少检测流程,获得较高的运动目标检测精度,实现了实时检测。

Description

一种基于航空图像序列的运动目标检测方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于航空图像序列的运动目标检测方法。
背景技术
航空遥感图像序列一般从无人机或气球等动基座平台获取,运动平台飞行高度通常在数百米到数十公里之间。运动目标检测即从序列图像中检测出变化区域,并将运动目标从背景图像中提取出来,提取到的运动目标信息可以为后续的目标识别、跟踪,行为分析等任务提供可参考的区域。在遥感图像序列中准确、快速地找到运动目标所在的位置,无论是在民用还是军事领域中都具有十分重要的意义;在民用领域中,可用于智能控制、人机交互、视觉导航等;在军事领域中,可用于目标监视、远程预警、精确制导等。目前对航空遥感序列图像运动目标的识别常通过人工判读的方式进行,导致数据的利用率低且情报的时效性差,同时人工判读方式易受工作人员身体状况、精神和主观意识的影响。
为了避免人工方式对运动目标检测结果的影响、减少对人力资本的消耗,高效准确的航空遥感图像的自动运动目标检测技术显得尤为重要。与固定基座下的运动目标检测任务相比,航空图像序列的运动目标检测主要包括如下难点:
1、运动成像:无人机移动监控、机载成像探测等都是动平台成像,动平台成像会使背景在空间上和时间上不再保持不变,运动的背景会产生虚假运动,合理的区分背景运动和目标运动,是动平台成像下运动目标检测的需要解决的关键问题;
2、背景复杂:航空遥感图像中存在大量与运动目标拥有相同或相近特征的物体,且航拍图像的拍摄易受到云雾等天气的影响,需要考虑复杂气象条件对航拍图像的影响;
3、动态背景:除了所需关注的主要运动目标外,还存在大量自然界中存在的干扰的运动背景,这些典型的动态背景包括被风吹动的树木、有波浪的水面、移动的白云等,动态背景需要根据应用需求进行排除;
4、阴影运动:阴影通常会被当作运动目标而被常规的运动目标检测技术检测出来;
5、实时检测:运动目标检测多数情况都需要及时处理图像数据,越是鲁棒、检测效果越好的方法,通常都难以做到实时处理;一方面需要寻求完善的检测技术,能够适应复杂条件下的运动目标检测,另一方面需要就算法本身以及硬件实现进行改进和提速。
同时,现有的针对航空图像序列运动目标检测的传统方法大都采用将任务分为两步进行,首先将运动平台产生的背景运动补偿为静态背景或者获得可以更新的背景图像,然后利用静态背景下的运动目标检测技术对其进行运动目标检测。这样的检测方法严重依赖于运动模型的真实逼近和模型参数的鲁棒求解,因此在航空遥感图像成像平台运动的条件下较难实现同一像素在时域上的准确建模,且补偿过程中耗时巨大,检测结果需要后处理步骤,不能达到实时性要求。
现有的基于深度学习方法检测运动目标,通常直接采用通用的目标检测器,难以达到较高的检测精度和较快的检测效率,无法很好的在实际工程项目中应用。目前所提出的网络结构都是两阶段的,将运动目标检测任务分为目标检测与运动检测任务,且分开进行检测,通常利用额外计算的两帧做差图像或光流图像输入网络当作其运动检测分支,然后将目标检测网络的结果与运动检测结果融合,尚未涉及端到端的网络提出。
综上所述,如何设计一种基于深度学习的运动目标检测模型,可将多帧的运动特征与基于单帧图像的目标特征在网络的特征层面融合,实现端到端直接输出运动目标信息,可提高检测效率、减少检测流程、提高检测可靠性的运动目标检测方法,是当下亟需解决的问题。
发明内容
本发明为解决上述问题,提供了一种基于航空图像序列的运动目标检测方法,将提取的基于多帧的运动特征与基于单帧图像的目标特征在网络的特征层面融合,最后端到端直接输出运动目标信息,无需额外平台运动先验知识进行运动补偿,也无需后处理步骤,可提高检测效率和检测可靠性。
为达到上述目的,本发明提出如下技术方案:一种基于航空图像序列的运动目标检测方法,包括如下步骤:
S1:输入航空遥感图像序列;
S2:准备待训练影像数据集;
S3:将第k帧图像输入至目标检测网络中,将第k帧和第k-n帧图像输入至运动检测网络中,将目标检测网络中和运动检测网络中得到的特征图进行信息融合并得到最终的网络输出。
优选的,步骤S3包括如下子步骤:
S31:对输入的第k帧、第k-n帧图像进行运动信息提取,将两帧图像输入至基于二维卷积的运动特征增强模块MFEM中,得到加强的运动特征图f64*3*152*152
S32:将得到的加强运动特征图输入至改进的三维卷积模块MIE-Net中,提取出不同卷积深度的包含运动信息的特征图S76*76,S38*38,S19*19
S33:将S32中得到的S19*19特征输入至non-local模块进一步整合运动信息,得到整合后的S’19*19
S34:对第k帧图像进行目标信息特征提取,得到不同卷积深度的特征图F76*76,F38*38,F19*19
S35:将S32中得到S76*76和S38*38,S33中得到的S’19*19,S34中得到的F76*76、F38*38和F19*19的特征图按对应尺寸沿通道维度进行拼接;
S36:将S35中得到的三个特征图输入两个卷积模块解码,将尺寸规范化为YOLO格式,得到网络的最终输出。
优选的,S31中的MFEM模块中将两帧图像的特征做差,并利用差值作为三维卷积运动信息提取模块输入的第三维度。
优选的,S32中改进的三维卷积模块MIE-Net具体为:将一个卷积核为(3*3*3)的三维卷积分解为一个卷积核为(3*1*1)和(1*1*1)的两个一维卷积和一个卷积核为(1*2*2)的二维卷积。
优选的,S31中当航空影像数据集的数量较少时,若基于单帧的目标检测分支的权重较大,添加训练影像数据集中随机的十分之一的运动目标正样本同时作为第k-n帧输入;即当输入的第k帧和第k-n帧图像为同一帧图像时,将第k帧和第k-n帧图像作为负样本使运动信息提取分支获得更大的权重。
优选的,当航空数据集图像少时,引入仿射变换算法:
Figure BDA0004188396550000041
其中,(x,y)为原始像素点坐标,(u,v)为仿射变换之后的坐标。
优选的,步骤S3中当相邻两帧之间运动目标的运动距离大时,将第k-n帧图像中的n设为n<5;当相邻两帧之间运动目标的运动距离小时,将第k-n帧图像中的n设为n≥5。
优选的,S2中待训练影像数据集的获取方法如下:
S21:对图像进行裁切得到待训练影像数据集;
S22:根据待训练影像数据集中运动目标已标注的检测框,将训练影像数据集进行聚类为9个固定锚框,代入算法并训练得到模型参数。
优选的,S22中的固定锚框采用k-meaning方法对待训练影像数据集中的运动目标进行聚类,得到9个目标尺寸的典型值作为固定参考框代入模型。
优选的,S21中将图像裁切成统一的输入尺寸:608×608像素。
本发明有益效果是:
1、本发明将提取的基于多帧的运动特征与基于单帧图像的目标特征在网络的特征层面融合,可端到端直接输出运动目标的类别、位置等信息,无需额外平台运动的先验知识进行运动补偿,也无需后处理步骤,通过直接利用两帧原始图像中的信息,运动信息提取网络提取的运动信息增强了网络的鲁棒性,获得了较高的运动目标检测精度,减少了检测的流程,提升了检测速度,使网络能达到实时检测。
2、本发明可根据实际运动目标的运动快慢设置合适的两帧间隔参数,使得网络能同时兼顾运动较快与运动较慢的运动目标;本发明基于两帧之间的差值包含获取运动信息的特点,设计了时间特征增强模块,对两帧间的运动信息进行加强,并根据三维卷积可以提取运动信息的特点,改进三维卷积使其计算开销减小,进一步提取运动信息,使网络获得更好的运动信息提取效果,增加了运动目标的检测精度。
附图说明
图1是本发明实施例提供的运动目标检测流程图。
图2是本发明实施例提供的应用场景图。
图3是本发明实施例提供的模型总体框架图。
图4是本发明实施例提供的运动特征增强模块图。
图5是本发明实施例提供的运动信息提取网络图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图1-5及具体实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,而不构成对本发明的限制。
一种基于航空图像序列的运动目标检测方法,包括如下步骤:
S1:输入航空遥感图像序列;如图2所示,本实施例中的航空遥感图像拥有复杂背景的特点,其中,a、b、c、d处框示出的车辆为所要提取的运动目标,旁边的静止车辆拥有与其相同的目标信息,但其拥有不同的运动信息,结合运动信息与目标信息便可以提取出运动目标信息,运动目标在遥感图像中像素数量少,图像中存在与运动目标具有相同目标特征的静止目标干扰,加之背景复杂,在成像期间摄像头同时也在相对于背景而运动,所得到的航空遥感图像序列由运动目标与静止背景间的运动和摄像头与静止背景间的相互运动两种运动所合成。
S2:准备待训练影像数据集;待训练影像数据集的获取方法如下:
S21:对图像进行裁切得到待训练影像数据集,将图像裁切成统一的输入尺寸:608×608像素。
S22:根据待训练影像数据集中运动目标已标注的检测框,将训练影像数据集进行聚类为9个固定锚框,代入算法并训练得到模型参数;其中固定锚框采用k-meaning方法对待训练影像数据集中的运动目标进行聚类,得到9个目标尺寸的典型值作为固定参考框代入模型;利用得到的数据集对提出的方法进行训练,得到能够检测运动目标的卷积神经网络模型。
S3:将第k帧图像输入至目标检测网络中,将第k帧和第k-n帧图像输入至运动检测网络中,将目标检测网络中和运动检测网络中得到的特征图进行信息融合并得到最终的网络输出。运动目标检测网络可提取运动目标的坐标位置,长宽尺寸与类别名称,为了增强其运动目标检测能力,采用二维卷积增强运动信息特征,三维卷积提取运动信息的方式,对两帧图像间的运动信息进行提取,S3具体包括如下子步骤:
S31:对输入的第k帧、第k-n帧图像进行运动信息提取,将两帧图像输入至基于二维卷积的运动特征增强模块MFEM(Motion feature enhancement module)中,得到加强的运动特征图f64*3*152*152;MFEM模块如图4所示,TFEM模块由两帧差法中包含运动信息所启发而改进得到,MFEM模块中将两帧图像的特征做差,并利用差值作为三维卷积运动信息提取模块输入的第三维度,可进一步加强其运动信息,抑制背景和静止目标。
由于S2中的航空数据集较少,运动目标较小且标注难度较大,需设计多种数据增强方式,以提升算法的鲁棒性;
当航空影像数据集的数量较少时,若基于单帧的目标检测分支的权重较大,添加训练影像数据集中随机的十分之一的运动目标正样本同时作为第k-n帧输入;即当输入的第k帧和第k-n帧图像为同一帧图像时,将第k帧和第k-n帧图像作为负样本使运动信息提取分支获得更大的权重。
当航空数据集图像少时,引入仿射变换算法:
Figure BDA0004188396550000071
其中,(x,y)为原始像素点坐标,(u,v)为仿射变换之后的坐标。
当相邻两帧之间运动目标的运动距离大时,将第k-n帧图像中的n设为n<5,如设n=1;当相邻两帧之间运动目标的运动距离小时,将第k-n帧图像中的n设为n≥5,如设n=5。
S32:将得到的加强运动特征图输入至改进的三维卷积模块MIE-Net(Motioninformation extraction network)中,提取出不同卷积深度的包含运动信息的特征图S76*76,S38*38,S19*19;改进的三维卷积模块MIE-Net具体为:将一个卷积核为(3*3*3)的三维卷积分解为一个卷积核为(3*1*1)和(1*1*1)的两个一维卷积和一个卷积核为(1*2*2)的二维卷积。
S33:将S32中得到的S19*19特征输入至non-local模块进一步整合运动信息,得到整合后的S’19*19
S34:利用YOLOv5s算法作为目标检测分支的基准算法,对第k帧图像进行目标信息特征提取,得到不同卷积深度的特征图F76*76,F38*38,F19*19
S35:将S32中得到S76*76和S38*38,S33中得到的S’19*19,S34中得到的F76*76、F38*38和F19*19的特征图按对应尺寸沿通道维度进行拼接(Concatenation);
S36:将S35中得到的三个特征图输入两个卷积模块解码,将尺寸规范化为YOLO格式,得到网络的最终输出。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制。本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
以上本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所做出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。

Claims (10)

1.一种基于航空图像序列的运动目标检测方法,其特征在于,包括如下步骤:
S1:输入航空遥感图像序列;
S2:准备待训练影像数据集;
S3:将第k帧图像输入至目标检测网络中,将第k帧和第k-n帧图像输入至运动检测网络中,将目标检测网络中和运动检测网络中得到的特征图进行信息融合并得到最终的网络输出。
2.根据权利要求1所述的基于航空图像序列的运动目标检测方法,其特征在于,步骤S3包括如下子步骤:
S31:对输入的第k帧、第k-n帧图像进行运动信息提取,将两帧图像输入至基于二维卷积的运动特征增强模块MFEM中,得到加强的运动特征图f64*3*152*152
S32:将得到的加强运动特征图输入至改进的三维卷积模块MIE-Net中,提取出不同卷积深度的包含运动信息的特征图S76*76,S38*38,S19*19
S33:将S32中得到的S19*19特征输入至non-local模块进一步整合运动信息,得到整合后的S’19*19
S34:对第k帧图像进行目标信息特征提取,得到不同卷积深度的特征图F76*76,F38*38,F19*19
S35:将S32中得到S76*76和S38*38,S33中得到的S’19*19,S34中得到的F76*76、F38*38和F19*19的特征图按对应尺寸沿通道维度进行拼接;
S36:将S35中得到的三个特征图输入两个卷积模块解码,将尺寸规范化为YOLO格式,得到网络的最终输出。
3.根据权利要求2所述的基于航空图像序列的运动目标检测方法,其特征在于,S31中的MFEM模块中将两帧图像的特征做差,并利用差值作为三维卷积运动信息提取模块输入的第三维度。
4.根据权利要求2所述的基于航空图像序列的运动目标检测方法,其特征在于,S32中改进的三维卷积模块MIE-Net具体为:将一个卷积核为(3*3*3)的三维卷积分解为一个卷积核为(3*1*1)和(1*1*1)的两个一维卷积和一个卷积核为(1*2*2)的二维卷积。
5.根据权利要求4所述的基于航空图像序列的运动目标检测方法,其特征在于,S31中当航空影像数据集的数量较少时,若基于单帧的目标检测分支的权重较大,添加训练影像数据集中随机的十分之一的运动目标正样本同时作为第k-n帧输入;即当输入的第k帧和第k-n帧图像为同一帧图像时,将第k帧和第k-n帧图像作为负样本使运动信息提取分支获得更大的权重。
6.根据权利要求2-5中任一项所述的基于航空图像序列的运动目标检测方法,其特征在于,当航空数据集图像少时,引入仿射变换算法:
Figure FDA0004188396540000021
其中,(x,y)为原始像素点坐标,(u,v)为仿射变换之后的坐标。
7.根据权利要求6所述的基于航空图像序列的运动目标检测方法,其特征在于,步骤S3中当相邻两帧之间运动目标的运动距离大时,将第k-n帧图像中的n设为n<5;当相邻两帧之间运动目标的运动距离小时,将第k-n帧图像中的n设为n≥5。
8.根据权利要求7所述的基于航空图像序列的运动目标检测方法,其特征在于,S2中待训练影像数据集的获取方法如下:
S21:对图像进行裁切得到待训练影像数据集;
S22:根据待训练影像数据集中运动目标已标注的检测框,将训练影像数据集进行聚类为9个固定锚框,代入算法并训练得到模型参数。
9.根据权利要求8所述的基于航空图像序列的运动目标检测方法,其特征在于,S22中的固定锚框采用k-meaning方法对待训练影像数据集中的运动目标进行聚类,得到9个目标尺寸的典型值作为固定参考框代入模型。
10.根据权利要求9所述的基于航空图像序列的运动目标检测方法,其特征在于,S21中将图像裁切成统一的输入尺寸:608×608像素。
CN202310424573.6A 2023-04-19 2023-04-19 一种基于航空图像序列的运动目标检测方法 Pending CN116402859A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310424573.6A CN116402859A (zh) 2023-04-19 2023-04-19 一种基于航空图像序列的运动目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310424573.6A CN116402859A (zh) 2023-04-19 2023-04-19 一种基于航空图像序列的运动目标检测方法

Publications (1)

Publication Number Publication Date
CN116402859A true CN116402859A (zh) 2023-07-07

Family

ID=87014037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310424573.6A Pending CN116402859A (zh) 2023-04-19 2023-04-19 一种基于航空图像序列的运动目标检测方法

Country Status (1)

Country Link
CN (1) CN116402859A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117422867A (zh) * 2023-11-14 2024-01-19 中国科学院长春光学精密机械与物理研究所 基于多帧图像的运动目标检测方法
CN118037775A (zh) * 2024-02-02 2024-05-14 北京无线电测量研究所 一种基于运动模态的视频sar运动目标阴影检测方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN109272530A (zh) * 2018-08-08 2019-01-25 北京航空航天大学 面向空基监视场景的目标跟踪方法与装置
CN111123257A (zh) * 2019-12-30 2020-05-08 西安电子科技大学 基于图时空网络的雷达动目标多帧联合检测方法
CN115240089A (zh) * 2022-07-07 2022-10-25 中国科学院长春光学精密机械与物理研究所 一种航空遥感图像的车辆检测方法
CN115631426A (zh) * 2022-10-12 2023-01-20 中国科学院长春光学精密机械与物理研究所 一种遥感图像中基于关键点定位的目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154118A (zh) * 2017-12-25 2018-06-12 北京航空航天大学 一种基于自适应组合滤波与多级检测的目标探测系统及方法
CN109272530A (zh) * 2018-08-08 2019-01-25 北京航空航天大学 面向空基监视场景的目标跟踪方法与装置
CN111123257A (zh) * 2019-12-30 2020-05-08 西安电子科技大学 基于图时空网络的雷达动目标多帧联合检测方法
CN115240089A (zh) * 2022-07-07 2022-10-25 中国科学院长春光学精密机械与物理研究所 一种航空遥感图像的车辆检测方法
CN115631426A (zh) * 2022-10-12 2023-01-20 中国科学院长春光学精密机械与物理研究所 一种遥感图像中基于关键点定位的目标检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117422867A (zh) * 2023-11-14 2024-01-19 中国科学院长春光学精密机械与物理研究所 基于多帧图像的运动目标检测方法
CN118037775A (zh) * 2024-02-02 2024-05-14 北京无线电测量研究所 一种基于运动模态的视频sar运动目标阴影检测方法和装置

Similar Documents

Publication Publication Date Title
CN110728200B (zh) 一种基于深度学习的实时行人检测方法及系统
Chen et al. Vehicle detection in high-resolution aerial images via sparse representation and superpixels
CN111460968B (zh) 基于视频的无人机识别与跟踪方法及装置
Alidoost et al. A CNN-based approach for automatic building detection and recognition of roof types using a single aerial image
Chen et al. Vehicle detection in high-resolution aerial images based on fast sparse representation classification and multiorder feature
CN109934131A (zh) 一种基于无人机的小目标检测方法
CN109063549B (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN116402859A (zh) 一种基于航空图像序列的运动目标检测方法
CN111899278B (zh) 基于移动端的无人机图像快速目标跟踪方法
CN106503170B (zh) 一种基于遮挡维度的图像库构建方法
CN110555420A (zh) 一种基于行人区域特征提取和重识别融合模型网络及方法
CN112329559A (zh) 一种基于深度卷积神经网络的宅基地目标检测方法
CN115240089A (zh) 一种航空遥感图像的车辆检测方法
CN109657540B (zh) 枯死树定位方法及系统
CN113569911A (zh) 车辆识别方法、装置、电子设备及存储介质
Liu et al. Tilt correction toward building detection of remote sensing images
Li et al. Development and challenges of object detection: A survey
Li et al. An improved framework for airport detection under the complex and wide background
Tan et al. Automobile Component Recognition Based on Deep Learning Network with Coarse‐Fine‐Grained Feature Fusion
Liu et al. VL-MFL: UAV Visual Localization Based on Multi-Source Image Feature Learning
CN112802049B (zh) 一种家庭物品检测数据集构建方法及系统
Wu et al. Multimodal collaboration networks for geospatial vehicle detection in dense, occluded, and large-scale events
Omar et al. Aerial dataset integration for vehicle detection based on YOLOv4
KR20200005853A (ko) 심층 구조 학습 기반 사람 계수 방법 및 시스템
Chen et al. Stingray detection of aerial images with region-based convolution neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination