CN111915583A - 复杂场景中基于车载红外热像仪的车辆和行人检测方法 - Google Patents
复杂场景中基于车载红外热像仪的车辆和行人检测方法 Download PDFInfo
- Publication number
- CN111915583A CN111915583A CN202010741321.2A CN202010741321A CN111915583A CN 111915583 A CN111915583 A CN 111915583A CN 202010741321 A CN202010741321 A CN 202010741321A CN 111915583 A CN111915583 A CN 111915583A
- Authority
- CN
- China
- Prior art keywords
- detection
- infrared
- new
- vehicle
- yolov3 network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 122
- 238000012549 training Methods 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 238000010586 diagram Methods 0.000 claims abstract description 5
- 230000009466 transformation Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims 2
- 238000004364 calculation method Methods 0.000 claims 1
- 238000009432 framing Methods 0.000 claims 1
- 238000012216 screening Methods 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000007306 turnover Effects 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 238000001931 thermography Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供了一种复杂场景中基于车载红外热像仪的车辆和行人检测方法,解决现有技术中在复杂场景中进行车辆和行人检测平均准确率低的问题。其实现方案为:1.构建红外图像数据集,并将其分为训练样本和测试样本;2.对红外图像训练样本进行扩充;3.在YOLOv3网络特征图的第103层上下并行加入两个3×3卷积层,以与YOLOv3网络特征图第103层之后的3×3卷积层和1×1卷积层并行工作,构成新的YOLOv3网络;4.利用红外图像训练样本对新的YOLOv3网络进行训练;5.利用训练好的新YOLOv3网络模型检测测试样本集中的红外图像。本发明有效提高了红外图像中细小和密集目标的检测精度,可用于对复杂场景下目标分类和定位。
Description
技术领域
本发明属于计算机视觉目标检测领域,涉及一种红外图像车辆和行人检测方法,可用于对复杂场景下目标分类和定位。
背景技术
红外车辆和行人目标检测是计算机视觉和数字图像处理的一个重要内容,广泛应用于智能视频监控、先进驾驶辅助系统、交通管理等领域。在过去的十几年里,研究学者们通过研究红外图像目标丰富的形状、纹理这些特征,提出了许多传统的红外车辆和行人目标检测方法。
2012年,深度卷积神经网络AlexNet在ImageNet大规模视觉识别挑战赛的成功,证明了卷积神经网络提取的特征比手工制作提取的特征,如尺度不变特征变换SIFT和方向梯度直方图特征HOG更强大,也因此几乎所有的具有出色性能的目标检测方法都是基于深度卷积神经网络开展的。这些方法可以分为两类,第一类是采用一阶的方法,可进行端到端的网络训练与预测。如YOLO算法通过计算全局特征图在全连接层进行位置和类别预测,SSD算法通过深度卷积神经网络对原始图像分层向下采样,然后将采样生成的多尺度特征图用于预测目标。第二类是采用两阶的方法检测目标。如Faster R-CNN算法第一阶段从经过预处理的网络提取的特征图中产生感兴趣的区域,第二阶段从共享特征图中选择感兴趣区域的特征,预测出更精确的分类和定位。
目前,基于深度学习的红外目标检测方法也采用了上述两类方法的思想,但检测性能仍待提升。主要原因是复杂背景下红外目标的成像距离较远,红外图像的分辨率较低,目标在图像中仅占较少的像素,使得红外目标检测任务变得十分困难。此外,复杂场景中的车辆和行人可能是相邻的,也可能是相互遮挡的,这使得准确定位车辆和行人更加困难。
最近两年,一些基于深度学习的红外目标检测方法被提出,如易诗提出基于红外热成像与YOLOv3的夜间目标识别方法,该方法使用基于深度学习技术的目标检测框架YOLOv3,对采集处理后的热成像图像中的特定目标进行检测,输出检测结果。然而,该方法对热成像图像中的细小目标和密集目标的检测性能较差,目标召回率较低。张勋勋通过改进的YOLOv3网络,提出了一种航空红外车辆检测算法。该算法为了提高检测效率,构建了一个新的改进的YOLOv3网络结构,它只有16层。此外,该算法将每一个特征金字塔层级的锚框扩展到四个尺度,提高了小型车辆的检测精度。但是,该方法采用原始的NMS算法筛选出最终的目标检测框,对于相互重叠的目标检测框,NMS算法会将检测分数较低的检测框过滤掉。因此,该算法无法对红外图像中相互遮挡的车辆进行准确定位。
发明内容
本发明的目的在于针对上述已有技术存在的不足,提供一种复杂场景中基于车载红外热像仪的车辆和行人方法,以提高红外图像中细小和密集目标的检测精度。
本发明的技术方案是:首先构建红外图像数据集,并对红外图像训练样本集进行扩充,然后构建一个新的YOLOv3网络,采用完整的交并比损失LCIoU作为新的YOLOv3网络最优的边界框回归损失,对新的YOLOv3网络进行训练,得到训练好的新YOLOv3网络模型,最后利用训练好的新YOLOv3网络模型检测红外图像,使用Soft-NMS算法从红外图像中筛选出最终的车辆和行人检测框,具体实现步骤包括如下:
(1)构建红外图像数据集:
通过车载红外热像仪录制红外数据,利用MATLAB软件对场景相似的红外图像进行剔重,利用LabelImg图像标记工具对红外图像中的各类目标进行位置标注,得到红外图像数据集,并将红外图像数据集划分为训练集、验证集和测试集,其中训练集占比60%,验证集和测试集分别各占比20%;
(2)对红外图像训练样本集进行扩充:
(2a)对训练集中的红外图像分别进行90°、180°和270°的旋转,得到旋转变换后的训练样本;
(2b)对训练集中的红外图像进行水平翻转和垂直翻转,得到翻转变换后的训练样本;
(2c)对训练集中的红外图像进行色度空间变换,即先将红外图像所在的RGB颜色空间变换到HSV颜色空间,该HSV颜色空间包含色相H、饱和度S和明亮程度V三种信息,并将色相信息H值分别设定为0°,60°,120°,180°,240°和300°,将明亮程度V值设定为0.7;再将HSV颜色空间变换回红外图像所在的RGB颜色空间,得到色度空间变换后的训练样本;
(2d)将旋转变化、翻转变换和色度空间变换后的训练样本进行合并,得到扩充后的红外图像训练样本集;
(3)构建新的YOLOv3网络:
在YOLOv3网络特征图的第103层上下并行加入两个3×3卷积层,这两个3×3卷积层与YOLOv3网络特征图第103层之后的3×3卷积层和1×1卷积层并行工作,构成新的YOLOv3网络;
(4)对新的YOLOv3网络进行训练:
(4a)使用完整的交并比损失函数LCIoU作为新的YOLOv3网络最优的边界框回归损失;
(4b)将新的YOLOv3网络第103层加入的两个3×3卷积层的输出作为特征向量,利用扩充后的红外图像训练样本集对新的YOLOv3网络进行训练,直到完整的交并比损失函数LCIoU完全收敛后停止训练,得到训练好的新YOLOv3网络模型;
(5)利用训练好的新YOLOv3网络模型检测红外图像:
(5a)将测试集中的红外图像送入训练好的新YOLOv3网络模型,得到具有分类信息和定位信息的红外图像;
(5b)使用Soft-NMS算法从具有分类信息和定位信息的红外图像中筛选出车辆和行人检测框。
本发明与现有技术相比,具有以下优点:
第一,本发明由于在YOLOv3网络特征图的第103层上下并行加入两个3×3卷积层,提高了检测器对红外图像细小和密集目标的检测能力。
第二,本发明由于对新YOLOv3网络进行训练时,使用完整的交并比损失LCIoU,加快了新YOLOv3网络的训练速度。
第三,本发明由于对训练好的新YOLOv3网络模型使用Soft-NMS算法,从红外图像中筛选出最终的车辆和行人检测框,提高了新YOLOv3网络模型对相互遮挡的车辆和行人的检测精度。
附图说明
图1为本发明的实现流程图;
图2为本发明中构建的新YOLOv3网络结构示意图;
图3为分别用现有YOLOv3算法和本发明从红外图像中检测出的车辆及行人结果图。
具体实施方式
下面将结合附图对本发明的具体实施例和效果作进一步详细描述:
参照图1,本发明在复杂场景中基于车载红外热像仪的车辆和行人检测方法,包括如下步骤:
步骤1,构建红外图像数据集。
通过车载红外热像仪从校园、公路、广场等几十个复杂场景中总共收集5322张红外图像,图像的尺寸大小为640x480像素,水平分辨率和垂直分辨率均为96dpi。
利用MATLAB软件对场景相似的红外图像进行剔重,利用LabelImg图像标记工具对红外图像中的小汽车,行人,卡车,自行车,摩托车,公共汽车这6类目标进行位置标注,得到红外图像数据集;
将红外图像数据集划分为训练集、验证集和测试集,其中训练集占比60%,验证集和测试集分别各占比20%;
本实例中,红外图像数据集一共包含42907个边界框标签,平均一张图像包含8个边界框标签,每个边界框标签包含有目标的分类信息和坐标位置信息。
步骤2,对红外图像训练样本集进行扩充。
2.1)对训练集中的红外图像分别进行90°、180°和270°的旋转,得到旋转变换后的训练样本;
2.2)对训练集中的红外图像进行水平翻转和垂直翻转,得到翻转变换后的训练样本;
2.3)对训练集中的红外图像进行色度空间变换,即先将红外图像所在的RGB颜色空间变换到HSV颜色空间,该HSV颜色空间包含色相H、饱和度S和明亮程度V三种信息,并将色相信息H值分别设定为0°,60°,120°,180°,240°和300°,将明亮程度V值设定为0.7;再将HSV颜色空间变换回红外图像所在的RGB颜色空间,得到色度空间变换后的训练样本;
2.4)将旋转变化、翻转变换和色度空间变换后的训练样本进行合并,得到扩充后的红外图像训练样本集。
步骤3,构建新的YOLOv3网络。
本步骤是对现有YOLOv3网络的改进,现有YOLOv3网络主要采用了类似特征金字塔网络FPN的思想,它的三个金字塔级的特征图分别用于预测不同尺度大小的物体,输出一个包含边界框位置信息、目标置信度信息和分类预测信息的三维特征向量。
参照图2,本实例是在现有YOLOv3网络特征图的第103层进行改进,原有的103层依次为一个3×3卷积层和一个1×1卷积层,其改进是在该103层的上下并行加入两个3×3卷积层,即在YOLOv3网络特征图的第103层上方添加一个带有K个滤波器的3×3卷积层,用于预测各个目标会出现在YOLOv3网络特征图上每个空间位置的概率;在YOLOv3网络特征图的第103层下方添加一个带有4个滤波器的3×3卷积层,用于预测以锚框自由方式编码的边界框偏移量;
这两个3×3卷积层与YOLOv3网络特征图第103层之后的3×3卷积层和1×1卷积层并行工作,构成新的YOLOv3网络,它包含锚框自由分支和有锚分支两条并行支路,其中:
锚框自由分支结构为:特征金字塔网络→第103个卷积层→两个上下并行的3×3卷积层;
有锚分支结构为:特征金字塔网络→第103个卷积层→3×3卷积层→1×1卷积层。
步骤4,对新的YOLOv3网络进行训练。
4.1)使用完整的交并比损失LCIoU作为新的YOLOv3网络最优的边界框回归损失,即:
其中,IoU表示预测框和目标框的交并比,b和bgt分别表示预测框和目标框的中心点,ρ(·)是欧式距离,c是覆盖两个检测框的最小封闭检测框的对角线长度,α是一个正的权重参数,υ表示纵横比的一致性;
本实例中,α的取值为0.5,υ的取值为1;
4.2)将新的YOLOv3网络第103层加入的两个3×3卷积层的输出作为特征向量,对新的YOLOv3网络进行训练,直到完整的交并比损失函数LCIoU完全收敛后停止训练,得到训练好的新YOLOv3网络模型。
步骤5,利用训练好的新YOLOv3网络模型检测红外图像。
5.1)将测试集中的红外图像送入训练好的新YOLOv3网络模型,得到具有分类信息和定位信息的红外图像;
5.2)提取具有分类信息和定位信息的红外图像初始检测框bi,并将其放入初始检测集S中,再从初始检测集S中选择目标置信度分数最高的检测框M加入到最终的检测集D中;
5.3)记初始检测框bi和检测框M的交并比初值为iou(M,bi),遍历初始检测集S中剩余的初始检测框bi,采用Soft-NMS算法对初始检测集S进行更新,公式如下:
其中,bi是初始的检测框,si是初始的检测分数,i表示第i个检测框,1≤i≤N,s'是更新后的检测分数,iou(M,bi)是初始检测框与得分最高的检测框的交并比初值,M是得分最高的检测框,σ是权重参数,D是最终的检测集,是基于检测框重叠的加权函数;
本实例中,N的取值为1000;
5.4)设初始检测框bi和检测框M的交并比阈值为t,将初始检测框bi和检测框M的交并比初值iou(M,bi)与阈值t进行比较;
如果iou(M,bi)值小于设定的阈值t,就将初始检测框bi保留在初始检测集S中,执行5.5);
本实例中,阈值t的取值为0.9;
5.5)判断更新后的检测分数s'≥0.85是否成立:若是,将初始检测框bi从初始检测集S中删除,否则,将初始检测框bi保留在初始检测集S中,执行5.6);
5.6)从当前的初始检测集S中继续选一个得分最高的检测框M加入到最终的检测集D中,返回5.4)开始循环;
5.7)重复执行5.4)至5.6),直至初始检测集S为空,此时最终的检测集D中包含的检测框即为筛选后的车辆和行人检测框。
以下结合仿真实验,对本发明的效果作进一步说明:
1.仿真条件:
仿真实验采用操作系统为Ubuntu16.0.4,处理器为英特尔i7-2600,主频为3.4GHZ,内存为8GB,显卡为英伟达GTX 1080ti,显存为11GB。实验用的深度学习框架为TensorFlow。
2.仿真内容:
提取本发明实例测试集中的红外图像,分别利用本发明方法和现有的YOLOv3算法进行车辆和行人检测,结果如图3。其中,图3(a)是现有的YOLOv3算法从红外图像中检测出的车辆及行人结果图,图3(b)是本发明方法从红外图像中检测出的车辆及行人结果图。从图3可见,本发明方法相比现有的YOLOv3算法,在车辆及行人检测精度和检测召回率上均有了明显的提升。
对上述两种方法的车辆和行人检测平均准确率进行统计,其结果如表1。
表1两种方法的平均准确率对照
现有的YOLOv3算法 | 本发明方法 | |
车辆和行人检测平均准确率 | 63.8% | 72.2% |
从表1可以看出,本发明方法对车辆和行人检测的平均准确率为72.2%,而现有的YOLOv3算法对车辆和行人检测的平均准确率仅为63.8%,本发明方法相比现有的YOLOv3算法,在平均准确率上有了明显的提升。
Claims (4)
1.一种复杂场景中基于车载红外热像仪的车辆和行人检测方法,其特征在于,包括如下:
(1)构建红外图像数据集:
通过车载红外热像仪录制红外数据,利用MATLAB软件对场景相似的红外图像进行剔重,利用LabelImg图像标记工具对红外图像中的各类目标进行位置标注,得到红外图像数据集,并将红外图像数据集划分为训练集、验证集和测试集,其中训练集占比60%,验证集和测试集分别各占比20%;
(2)对红外图像训练样本集进行扩充:
(2a)对训练集中的红外图像分别进行90°、180°和270°的旋转,得到旋转变换后的训练样本;
(2b)对训练集中的红外图像进行水平翻转和垂直翻转,得到翻转变换后的训练样本;
(2c)对训练集中的红外图像进行色度空间变换,即先将红外图像所在的RGB颜色空间变换到HSV颜色空间,该HSV颜色空间包含色相H、饱和度S和明亮程度V三种信息,并将色相信息H值分别设定为0°,60°,120°,180°,240°和300°,将明亮程度V值设定为0.7;再将HSV颜色空间变换回红外图像所在的RGB颜色空间,得到色度空间变换后的训练样本;
(2d)将旋转变化、翻转变换和色度空间变换后的训练样本进行合并,得到扩充后的红外图像训练样本集;
(3)构建新的YOLOv3网络:
在YOLOv3网络特征图的第103层上下并行加入两个3×3卷积层,这两个3×3卷积层与YOLOv3网络特征图第103层之后的3×3卷积层和1×1卷积层并行工作,构成新的YOLOv3网络;
(4)对新的YOLOv3网络进行训练:
(4a)使用完整的交并比损失函数LCIoU作为新的YOLOv3网络最优的边界框回归损失;
(4b)将新的YOLOv3网络第103层加入的两个3×3卷积层的输出作为特征向量,利用扩充后的红外图像训练样本集对新的YOLOv3网络进行训练,直到完整的交并比损失函数LCIoU完全收敛后停止训练,得到训练好的新YOLOv3网络模型;
(5)利用训练好的新YOLOv3网络模型检测红外图像:
(5a)将测试集中的红外图像送入训练好的新YOLOv3网络模型,得到具有分类信息和定位信息的红外图像;
(5b)使用Soft-NMS算法从具有分类信息和定位信息的红外图像中筛选出车辆和行人检测框。
2.根据权利要求1所述的方法,其特征在于,(3)中构成新的YOLOv3网络,包含锚框自由分支和有锚分支两条并行支路,其中:
锚框自由分支结构为:特征金字塔网络→第103个卷积层→两个上下并行的3×3卷积层;
有锚分支的结构为:特征金字塔网络→第103个卷积层→3×3卷积层→1×1卷积层。
4.根据权利要求1所述的方法,其特征在于,(5)中使用Soft-NMS算法从具有分类信息和定位信息的红外图像中筛选出车辆和行人检测框的操作过程为:
(5a)提取具有分类信息和定位信息的红外图像初始检测框bi,将其放入初始检测集S中,从初始检测集S中选择目标置信度分数最高的检测框M,并把该检测框M加入到最终的检测集D中;
(5b)记初始检测框bi和检测框M的交并比初值为iou(M,bi),遍历初始检测集S中剩余的初始检测框bi,采用Soft-NMS算法对初始检测集S进行更新,公式如下:
其中,bi是初始的检测框,si是初始的检测分数,s'是更新后的检测分数,iou(M,bi)是初始检测框与得分最高的检测框的交并比,M是得分最高的检测框,σ是权重参数,D是最终的检测集,是基于检测框重叠的加权函数;
(5c)设初始检测框bi和检测框M的交并比阈值为t,将初始检测框bi和检测框M交并比初值iou(M,bi)与阈值t进行比较;
如果iou(M,bi)值小于设定的阈值t,就将初始检测框bi保留在初始检测集S中,执行(5e);
(5d)判断更新后的检测分数s'≥0.85是否成立:若是,将初始检测框bi从初始检测集S中删除,否则,将初始检测框bi保留在初始检测集S中,执行(5e);
(5e)从当前的初始检测集S中继续选一个得分最高的检测框M加入到最终的检测集D中,返回(5c)开始循环;
(5f)重复执行(5c)至(5e),直至初始检测集S为空,此时最终的检测集D中包含的检测框即为筛选后的车辆和行人检测框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010741321.2A CN111915583B (zh) | 2020-07-29 | 2020-07-29 | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010741321.2A CN111915583B (zh) | 2020-07-29 | 2020-07-29 | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111915583A true CN111915583A (zh) | 2020-11-10 |
CN111915583B CN111915583B (zh) | 2024-02-09 |
Family
ID=73286623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010741321.2A Active CN111915583B (zh) | 2020-07-29 | 2020-07-29 | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111915583B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613462A (zh) * | 2020-12-29 | 2021-04-06 | 安徽大学 | 一种加权交并比方法 |
CN112686923A (zh) * | 2020-12-31 | 2021-04-20 | 浙江航天恒嘉数据科技有限公司 | 一种基于双阶段卷积神经网络的目标跟踪方法及系统 |
CN113158922A (zh) * | 2021-04-26 | 2021-07-23 | 平安科技(深圳)有限公司 | 基于yolo神经网络的车流量统计方法、装置及设备 |
CN113221659A (zh) * | 2021-04-13 | 2021-08-06 | 天津大学 | 一种基于不确定感知网络的双光车辆检测方法及装置 |
CN113805151A (zh) * | 2021-08-17 | 2021-12-17 | 青岛本原微电子有限公司 | 基于注意力机制的中重频雷达目标检测方法 |
CN114271908A (zh) * | 2021-12-09 | 2022-04-05 | 上海杏脉信息科技有限公司 | 超声介入引导装置、介质及电子设备 |
CN114782983A (zh) * | 2022-03-24 | 2022-07-22 | 南京理工大学 | 基于改进特征金字塔和边界损失的道路场景行人检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110647852A (zh) * | 2019-09-27 | 2020-01-03 | 集美大学 | 一种车流量统计方法、终端设备及存储介质 |
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
WO2020102988A1 (zh) * | 2018-11-20 | 2020-05-28 | 西安电子科技大学 | 基于特征融合和稠密连接的红外面目标检测方法 |
CN111222396A (zh) * | 2019-10-23 | 2020-06-02 | 江苏大学 | 一种全天候多光谱行人检测方法 |
-
2020
- 2020-07-29 CN CN202010741321.2A patent/CN111915583B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
WO2020102988A1 (zh) * | 2018-11-20 | 2020-05-28 | 西安电子科技大学 | 基于特征融合和稠密连接的红外面目标检测方法 |
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
CN110647852A (zh) * | 2019-09-27 | 2020-01-03 | 集美大学 | 一种车流量统计方法、终端设备及存储介质 |
CN111222396A (zh) * | 2019-10-23 | 2020-06-02 | 江苏大学 | 一种全天候多光谱行人检测方法 |
Non-Patent Citations (2)
Title |
---|
王林;张鹤鹤;: "Faster R-CNN模型在车辆检测中的应用", 计算机应用, no. 03 * |
胡辉;曾琛;: "基于改进R-FCN的车辆目标检测方法", 计算机工程与设计, no. 04 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613462A (zh) * | 2020-12-29 | 2021-04-06 | 安徽大学 | 一种加权交并比方法 |
CN112613462B (zh) * | 2020-12-29 | 2022-09-23 | 安徽大学 | 一种加权交并比方法 |
CN112686923A (zh) * | 2020-12-31 | 2021-04-20 | 浙江航天恒嘉数据科技有限公司 | 一种基于双阶段卷积神经网络的目标跟踪方法及系统 |
CN113221659A (zh) * | 2021-04-13 | 2021-08-06 | 天津大学 | 一种基于不确定感知网络的双光车辆检测方法及装置 |
CN113158922A (zh) * | 2021-04-26 | 2021-07-23 | 平安科技(深圳)有限公司 | 基于yolo神经网络的车流量统计方法、装置及设备 |
CN113805151A (zh) * | 2021-08-17 | 2021-12-17 | 青岛本原微电子有限公司 | 基于注意力机制的中重频雷达目标检测方法 |
CN113805151B (zh) * | 2021-08-17 | 2024-09-10 | 青岛本原微电子有限公司 | 基于注意力机制的中重频雷达目标检测方法 |
CN114271908A (zh) * | 2021-12-09 | 2022-04-05 | 上海杏脉信息科技有限公司 | 超声介入引导装置、介质及电子设备 |
CN114782983A (zh) * | 2022-03-24 | 2022-07-22 | 南京理工大学 | 基于改进特征金字塔和边界损失的道路场景行人检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111915583B (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wei et al. | Multi-target defect identification for railway track line based on image processing and improved YOLOv3 model | |
CN111915583B (zh) | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 | |
CN112101221B (zh) | 一种用于交通信号灯实时检测与识别的方法 | |
CN109598241B (zh) | 基于Faster R-CNN的卫星图像海上舰船识别方法 | |
WO2019169816A1 (zh) | 一种用于精细化识别车辆属性的深度神经网络及训练方法 | |
CN109033950B (zh) | 基于多特征融合级联深度模型的车辆违停检测方法 | |
CN108875595A (zh) | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 | |
CN104239867B (zh) | 车牌定位方法及系统 | |
CN108460403A (zh) | 一种图像中多尺度特征融合的目标检测方法与系统 | |
CN107067002A (zh) | 一种动态视频中道路车牌识别方法 | |
CN107463892A (zh) | 一种结合上下文信息和多级特征的图像中行人检测方法 | |
CN107273832B (zh) | 基于积分通道特征与卷积神经网络的车牌识别方法及系统 | |
CN108009518A (zh) | 一种基于快速二分卷积神经网络的层次化交通标识识别方法 | |
Li et al. | Robust vehicle detection in high-resolution aerial images with imbalanced data | |
CN111695514A (zh) | 一种基于深度学习的雾天下车辆检测方法 | |
CN109033944B (zh) | 一种全天空极光图像分类与关键局部结构定位方法及系统 | |
CN114049572A (zh) | 识别小目标的检测方法 | |
CN112200186B (zh) | 基于改进yolo_v3模型的车标识别方法 | |
CN104408482A (zh) | 一种高分辨率sar图像目标检测方法 | |
CN110263712A (zh) | 一种基于区域候选的粗精行人检测方法 | |
CN104978567A (zh) | 基于场景分类的车辆检测方法 | |
CN110852179A (zh) | 基于视频监控平台的可疑人员入侵的检测方法 | |
CN106845458B (zh) | 一种基于核超限学习机的快速交通标识检测方法 | |
CN114332921A (zh) | 基于改进聚类算法的Faster R-CNN网络的行人检测方法 | |
de Almeida et al. | Vehicle occurrence-based parking space detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |