[go: up one dir, main page]

CN111583341A - 云台像机移位检测方法 - Google Patents

云台像机移位检测方法 Download PDF

Info

Publication number
CN111583341A
CN111583341A CN202010364127.7A CN202010364127A CN111583341A CN 111583341 A CN111583341 A CN 111583341A CN 202010364127 A CN202010364127 A CN 202010364127A CN 111583341 A CN111583341 A CN 111583341A
Authority
CN
China
Prior art keywords
image
straight line
detection
pan
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010364127.7A
Other languages
English (en)
Other versions
CN111583341B (zh
Inventor
谭中慧
刘俊
杨东烨
袁彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cosco Shipping Technology Co Ltd
Original Assignee
Cosco Shipping Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cosco Shipping Technology Co Ltd filed Critical Cosco Shipping Technology Co Ltd
Priority to CN202010364127.7A priority Critical patent/CN111583341B/zh
Publication of CN111583341A publication Critical patent/CN111583341A/zh
Application granted granted Critical
Publication of CN111583341B publication Critical patent/CN111583341B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种云台像机移位检测方法,包括步骤:S1:获取视频交通参数和事件检测系统的道路监控视频图像,并利用道路监控视频图像基于YOLOV3的深度学习检测方法进行车道线检测;S2:对车道线检测结果图像进行图像预处理,获得预处理结果图像;S3:对预处理结果图像进行直线检测,获得多个直线段;S4:计算直线段的直线斜率和直线位置,直线位置为直线段在原路监控视频图像中的位置;S5:利用直线斜率和直线位置进行时空域比对,判定视频交通参数和事件检测系统的云台摄像机是否位移。本发明的一种云台像机移位检测方法,以提供视频交通参数和事件检测系统其他算法调用和判定依据,具有较佳的普适性和准确性。

Description

云台像机移位检测方法
技术领域
本发明涉及智能交通技术领域,尤其涉及一种云台像机移位检测方法。
背景技术
随着我国公路交通网络和视频监控技术的快速发展,两者的结合也日益紧密。目前,我国的高速公路规模世界第一,为了缓解巡查压力和不断提高高速公路的信息化水平,视频监控在高速公路的现代化建设中逐步得到重视,诸多道路逐步实现视频监控全程覆盖。海量的视频数据仅仅依靠传统的人力资源轮询、查看和监控已经显得力不从心,不断提高道路道路监控和交通管理的智能化水平是目前智能交通的发展方向。视频交通参数和事件检测系统就是通过先进的计算机模式识别、视频图像处理、人工智能、轨迹跟踪等方法,对前端摄像机视频图像进行实时分析和处理,通过设计好的检测算法自动进行车型、车速、流量、行人闯入、车辆逆行等交通参数和交通事件进行检测的装置。
云台摄像机移位检测作为视频交通检测的重要组成部分,不仅关系到摄像机本身的维护,也关系到其他参数和事件检测的有效性和准确性,是视频交通检测的基础,是智能交通领域研究的热点。
云台主要用Pan/Tilt/Zoom三个参数描述云台全方位(上下、左右)移动及镜头变倍、变焦控制,因此,传统的方式主要利用这三个参数来判断云台是否移动。但只有少部分云台向外提供这三个参数,同时,云台在这三个参数不变的情况下,由于机械磨损等原因,还存在漂移现象。因此该方式普适性和准确性较差。
发明内容
针对上述现有技术中的不足,本发明提供一种云台像机移位检测方法,以提供视频交通参数和事件检测系统其他算法调用和判定依据,具有较佳的普适性和准确性。
为了实现上述目的,本发明提供一种云台像机移位检测方法,包括步骤:
S1:获取一视频交通参数和事件检测系统的道路监控视频图像,并利用所述道路监控视频图像基于YOLOV3的深度学习检测方法进行车道线检测,获得车道线检测结果图像;
S2:对所述车道线检测结果图像进行图像预处理,获得预处理结果图像;
S3:对所述预处理结果图像进行直线检测,获得多个直线段;
S4:计算所述直线段的直线斜率和直线位置,所述直线位置为所述直线段在原所述路监控视频图像中的位置;
S5:利用所述直线斜率和所述直线位置进行时空域比对,判定所述视频交通参数和事件检测系统的云台摄像机是否位移。
优选地,所述S1步骤进一步包括步骤:
S11:样本收集步骤,从所述视频交通参数和事件检测系统的道路监控视频中截取多张彩色图片作为所述道路监控视频图像并形成一样本集,所述样本集包括一训练集和一测试集,所述训练集和所述测试集分别包括多张所述道路监控视频图像;
S12:打标步骤,用专用工具对所述训练集的所有所述路监控视频图像进行打标,用矩形框框选多个检测目标,并对所述检测目标加上标记,所述检测目标包括车道线,所述标记包括所述检测目标的种类和关联位置信息;
S13:训练步骤,利用所述训练集和基于DARKNET的YOLOV3训练框架进行训练,生成所述检测目标的目标权重文件;
S14:检测步骤,利用训练生成的所述目标权重文件,向YOLOV3提供的C++调用接口输入待检测目标图像,获得车道线检测结果图像和多个矩形框向量集,所述车道线检测结果图像包括多个框有所述检测目标的所述矩形框,所述矩形框向量集为该矩形框的向量集。
优选地,所述训练集包括的所述道路监控视频图像的个数大于1000;所述测试集包括的所述道路监控视频图像的个数大于10。
优选地,所述S2步骤进一步包括步骤:
S21:将所述车道线检测结果图像转换为灰度图像;
S22:对所述灰度图像进行边缘检测,提取所述矩形框区域的图像并作为所述预处理结果图像输出。
优选地,所述S21步骤中,利用一灰度值转换公式将所述车道线检测结果图像转换为灰度图像,所述灰度值转换公式为:
Yi=0.299×Ri+0.587×Gi+0.114×Bi (1);
其中,Yi表示第i个像素点对应的灰度值,Ri表示该像素的红色分量,Gi表示该像素的绿色分量,Bi表示该像素的蓝色分量。
优选地,所述S22步骤中,利用开源机器视觉库OPENCV的CANNY检测接口函数对所述灰度图像进行边缘检测。
优选地,所述S3步骤中,每一所述直线段包括两个端点,将个所述直线段的两所述端点按序列保存;所述端点包括起始点和结束点。
优选地,所述S3步骤中,利用OPENCV的直线检测函数提取所述直线段。
优选地,所述S4步骤中,根据公式(2)计算获得所述直线位置:
Figure BDA0002476127190000031
其中,X、Y分别依次表示所述直线段在原所述路监控视频图像中的X轴坐标和Y轴坐标;x0、y0分别依次表示所述直线段对应的所述矩形框相对原所述路监控视频图像的X轴坐标和Y轴坐标;xi、yi分别依次表示所述直线段的所述端点相对所述矩形框的X轴坐标和Y轴坐标。
优选地,所述S5步骤进一步包括步骤:
S51:利用公式(3)计算各帧所述待检测目标图像中前一帧和后一帧的图像中同一所述直线段的距离D:
Figure BDA0002476127190000032
其中,x1、y1分别依次表示前一帧图像的所述直线段的起始点的X轴坐标和Y轴坐标;x2、y2分别依次表示前一帧图像的所述直线段的结束点的X轴坐标和Y轴坐标;x3、y3分别依次表示后一帧图像的所述直线段的起始点的X轴坐标和Y轴坐标;x4、y4分别依次表示后一帧图像的所述直线段的结束点的X轴坐标和Y轴坐标;
S52:利用公式(4)计算各帧所述待检测目标图像中前一帧和后一帧的图像中同一所述直线段的斜率差Δk:
Δk=|k1-k2| (4);
其中,k1表示前一帧图像的所述直线段的所述直线斜率;k2表示后一帧图像的所述直线段的所述直线斜率;
S53:利用公式(5)判断所述云台摄像机是否位移:
Figure BDA0002476127190000041
其中,P(D,k)表示判定函数,th1表示距离差阈值,th2表示斜率差阈值;当P(D,k)=0时,表示所述云台摄像机未移位;当P(D,k)=1时,表示所述云台摄像机移位。
本发明由于采用了以上技术方案,使其具有以下有益效果:
1、检测效果好;基于深度学习的车道线检测方法,是一种高度智能、多特征多层次训练的目标整体识别方法,具有很高的检测准确性,并且能够随着样本集的逐步扩充不断提升训练质量,提高检测精度。
2、不需要任何标定,具有普适性;本方法通过对实时图像的车道线进行检测,并计算直线段的位置和斜率,然后在时间序列上对两个参数进行比较运算,即可判断云台摄像机是否移位。方法全程不需要任何标定,适用于任何场景摄像机,具有很好的普适性。
附图说明
图1为本发明实施例的云台像机移位检测方法的原理流程示意图。
具体实施方式
下面根据附图1,给出本发明的较佳实施例,并予以详细描述,使能更好地理解本发明的功能、特点。
请参阅图1,本发明实施例的一种云台像机移位检测方法,包括步骤:
S1:获取一视频交通参数和事件检测系统的道路监控视频图像,并利用道路监控视频图像基于YOLOV3的深度学习检测方法进行车道线检测,获得车道线检测结果图像。
其中,S1步骤进一步包括步骤:
S11:样本收集步骤,从视频交通参数和事件检测系统的道路监控视频中截取多张彩色图片作为道路监控视频图像并形成一样本集,样本集包括一训练集和一测试集,训练集和测试集分别包括多张道路监控视频图像;
样本集、训练集和测试集满足公式:
Figure BDA0002476127190000051
其中,P表示样本集,
Figure BDA0002476127190000052
表示训练集,为了保证训练过程所需的样本充足性要求,训练集样本数n>1000为宜,
Figure BDA0002476127190000053
为测试集,测试样本以满足测试要求即可,建议大于10张;
S12:打标步骤,用专用工具对训练集的所有路监控视频图像进行打标,用矩形框框选多个检测目标,用以确定目标在原始图像中的位置,并对检测目标加上标记,检测目标包括车道线,标记包括检测目标的种类和关联位置信息,用于后续程序训练过程中,从标定文件中读取图片和图片中检测目标的种类、关联位置信息等信息;
Figure BDA0002476127190000054
其中,l(p)表示标定函数,O(p)表示输出函数,on表示图片p中第n个标定目标的种类,fn1、fn2、fn3和fn4分别表示第n个目标对应矩形框的左上和右下脚坐标位置;
S13:训练步骤,利用训练集和基于DARKNET的YOLOV3训练框架进行训练,生成检测目标的目标权重文件;
S14:检测步骤,利用训练生成的目标权重文件,向YOLOV3提供的C++调用接口输入待检测目标图像,获得车道线检测结果图像和多个矩形框向量集,车道线检测结果图像包括多个框有检测目标的矩形框,矩形框向量集为该矩形框的向量集。
Figure BDA0002476127190000061
其中,D(p,W)表示YOLOV3调用接口,p表示输入的原始彩色图片,W表示训练得到的权重文件,on表示第n个目标的种类,xn、yn、wn和hn分别表示第n个目标的横向、纵向坐标位置,宽度和高度。
S2:对车道线检测结果图像进行图像预处理,获得预处理结果图像;图像预处理主要包括RGB彩色3通道图像到Y通道灰度图像的转换及目标区域边缘检测。
其中,S2步骤进一步包括步骤:
S21:将车道线检测结果图像转换为灰度图像;
S21步骤中,彩色图像转Y通道图像的目的是为后续的边缘检测提供输入图像源,利用一灰度值转换公式将车道线检测结果图像转换为灰度图像,灰度值转换公式为:
Yi=0.299×Ri+0.587×Gi+0.114×Bi (1);
其中,Yi表示第i个像素点对应的灰度值,Ri表示该像素的红色分量,Gi表示该像素的绿色分量,Bi表示该像素的蓝色分量。
S22:对灰度图像进行边缘检测,提取矩形框区域的图像并作为预处理结果图像输出。
S22步骤中,利用开源机器视觉库OPENCV的CANNY检测接口函数对灰度图像进行边缘检测。
目标区域边缘检测是指在Y通道图像中,根据深度学习目标检测的结果,提取矩形目标区域的图像,并进行边缘检测,得到仅含边缘轮廓的输出图像。CANNY检测在图像去噪、轮廓线提取等方面有着较好的效果,直接利用开源机器视觉库OPENCV提供的CANNY检测接口函数。
F(ps)=cvCanny(ps,pd,th3,th4,3)
其中,cvCanny(ps,pd,th1,th2,3)为边缘检测函数F(ps)的具体实现,ps为原图像,pd为边缘检测结果图像,th3和th4分别为边缘检测下阈值和上阈值,小阈值用来控制边缘连接,大的阈值用来控制强边缘的初始分割。
S3:对预处理结果图像进行直线检测,获得多个直线段。
S3步骤中,每一直线段包括两个端点,将个直线段的两端点按序列保存;端点包括起始点和结束点。
本实施例中,利用OPENCV的直线检测函数提取直线段。
直线检测就是将边缘检测结果图像作为输入图像,从中提取出直线段的处理过程。
利用OPENCV提供的直线检测函数进行目标直线提取,这是一种利用Hough变换在二值图像中寻找直线的方法。其函数原型为:
F(img)=cvLine(img,store,m,rho,theta,th,p1,p2)
其中,F(img)为检测输出,img为输入图像,即边缘检测结果图像,store为临时开辟的内存空间,m为Hough变换变量,rho为以像素为单位的距离精度,theta为以弧度为单位的角度精度。p1为最小线段长度参数,p2为直线最大间隔参数,即当一条直线上两条碎线之间小于该间隔时,合并成一条直线。
S4:计算直线段的直线斜率和直线位置,直线位置为直线段在原路监控视频图像中的位置。
斜率及位置计算,是指对检测到的每条直线段计算其斜率,并计算该直线段在整幅图像中的位置,为云台摄像机是否移位提供判定依据。
从直线检测结果中提取一条直线段的首末点坐标p1(x1,y1)和p2(x2,y2),直线段斜率k计算公式如下:
k=|y2-y1|/|x2-x1|。
直线段的位置计算就是将上述检测出的每一条直线段映射到原始图像,以确定每条直线段在原始图像中的位置。
S4步骤中,根据公式(2)计算获得直线位置:
Figure BDA0002476127190000071
其中,X、Y分别依次表示直线段在原路监控视频图像中的X轴坐标和Y轴坐标;x0、y0分别依次表示直线段对应的矩形框相对原路监控视频图像的X轴坐标和Y轴坐标;xi、yi分别依次表示直线段的端点相对矩形框的X轴坐标和Y轴坐标。
S5:利用直线斜率和直线位置进行时空域比对,判定视频交通参数和事件检测系统的云台摄像机是否位移。
时空域比对是指在时间序列上,对每帧检测得到的直线的位置、斜率进行比较,进而最终判定云台摄像机是否移位。
S5步骤进一步包括步骤:
S51:利用公式(3)计算各帧待检测目标图像中前一帧和后一帧的图像中同一直线段的距离D:
Figure BDA0002476127190000081
其中,x1、y1分别依次表示前一帧图像的直线段的起始点的X轴坐标和Y轴坐标;x2、y2分别依次表示前一帧图像的直线段的结束点的X轴坐标和Y轴坐标;x3、y3分别依次表示后一帧图像的直线段的起始点的X轴坐标和Y轴坐标;x4、y4分别依次表示后一帧图像的直线段的结束点的X轴坐标和Y轴坐标;
S52:利用公式(4)计算各帧待检测目标图像中前一帧和后一帧的图像中同一直线段的斜率差Δk:
Δk=|k1-k2| (4);
其中,k1表示前一帧图像的直线段的直线斜率;k2表示后一帧图像的直线段的直线斜率;
S53:利用公式(5)判断云台摄像机是否位移:
Figure BDA0002476127190000082
其中,P(D,k)表示判定函数,th1表示距离差阈值,th2表示斜率差阈值;当P(D,k)=0时,表示云台摄像机未移位;当P(D,k)=1时,表示云台摄像机移位。
以上结合附图实施例对本发明进行了详细说明,本领域中普通技术人员可根据上述说明对本发明做出种种变化例。因而,实施例中的某些细节不应构成对本发明的限定,本发明将以所附权利要求书界定的范围作为本发明的保护范围。

Claims (10)

1.一种云台像机移位检测方法,包括步骤:
S1:获取一视频交通参数和事件检测系统的道路监控视频图像,并利用所述道路监控视频图像基于YOLOV3的深度学习检测方法进行车道线检测,获得车道线检测结果图像;
S2:对所述车道线检测结果图像进行图像预处理,获得预处理结果图像;
S3:对所述预处理结果图像进行直线检测,获得多个直线段;
S4:计算所述直线段的直线斜率和直线位置,所述直线位置为所述直线段在原所述路监控视频图像中的位置;
S5:利用所述直线斜率和所述直线位置进行时空域比对,判定所述视频交通参数和事件检测系统的云台摄像机是否位移。
2.根据权利要求1所述的云台像机移位检测方法,其特征在于,所述S1步骤进一步包括步骤:
S11:样本收集步骤,从所述视频交通参数和事件检测系统的道路监控视频中截取多张彩色图片作为所述道路监控视频图像并形成一样本集,所述样本集包括一训练集和一测试集,所述训练集和所述测试集分别包括多张所述道路监控视频图像;
S12:打标步骤,用专用工具对所述训练集的所有所述路监控视频图像进行打标,用矩形框框选多个检测目标,并对所述检测目标加上标记,所述检测目标包括车道线,所述标记包括所述检测目标的种类和关联位置信息;
S13:训练步骤,利用所述训练集和基于DARKNET的YOLOV3训练框架进行训练,生成所述检测目标的目标权重文件;
S14:检测步骤,利用训练生成的所述目标权重文件,向YOLOV3提供的C++调用接口输入待检测目标图像,获得车道线检测结果图像和多个矩形框向量集,所述车道线检测结果图像包括多个框有所述检测目标的所述矩形框,所述矩形框向量集为该矩形框的向量集。
3.根据权利要求2所述的云台像机移位检测方法,其特征在于,所述训练集包括的所述道路监控视频图像的个数大于1000;所述测试集包括的所述道路监控视频图像的个数大于10。
4.根据权利要求2所述的云台像机移位检测方法,其特征在于,所述S2步骤进一步包括步骤:
S21:将所述车道线检测结果图像转换为灰度图像;
S22:对所述灰度图像进行边缘检测,提取所述矩形框区域的图像并作为所述预处理结果图像输出。
5.根据权利要求4所述的云台像机移位检测方法,其特征在于,所述S21步骤中,利用一灰度值转换公式将所述车道线检测结果图像转换为灰度图像,所述灰度值转换公式为:
Yi=0.299×Ri+0.587×Gi+0.114×Bi (1);
其中,Yi表示第i个像素点对应的灰度值,Ri表示该像素的红色分量,Gi表示该像素的绿色分量,Bi表示该像素的蓝色分量。
6.根据权利要求4所述的云台像机移位检测方法,其特征在于,所述S22步骤中,利用开源机器视觉库OPENCV的CANNY检测接口函数对所述灰度图像进行边缘检测。
7.根据权利要求6所述的云台像机移位检测方法,其特征在于,所述S3步骤中,每一所述直线段包括两个端点,将个所述直线段的两所述端点按序列保存;所述端点包括起始点和结束点。
8.根据权利要求7所述的云台像机移位检测方法,其特征在于,所述S3步骤中,利用OPENCV的直线检测函数提取所述直线段。
9.根据权利要求8所述的云台像机移位检测方法,其特征在于,所述S4步骤中,根据公式(2)计算获得所述直线位置:
Figure FDA0002476127180000021
其中,X、Y分别依次表示所述直线段在原所述路监控视频图像中的X轴坐标和Y轴坐标;x0、y0分别依次表示所述直线段对应的所述矩形框相对原所述路监控视频图像的X轴坐标和Y轴坐标;xi、yi分别依次表示所述直线段的所述端点相对所述矩形框的X轴坐标和Y轴坐标。
10.根据权利要求9所述的云台像机移位检测方法,其特征在于,所述S5步骤进一步包括步骤:
S51:利用公式(3)计算各帧所述待检测目标图像中前一帧和后一帧的图像中同一所述直线段的距离D:
Figure FDA0002476127180000031
其中,x1、y1分别依次表示前一帧图像的所述直线段的起始点的X轴坐标和Y轴坐标;x2、y2分别依次表示前一帧图像的所述直线段的结束点的X轴坐标和Y轴坐标;x3、y3分别依次表示后一帧图像的所述直线段的起始点的X轴坐标和Y轴坐标;x4、y4分别依次表示后一帧图像的所述直线段的结束点的X轴坐标和Y轴坐标;
S52:利用公式(4)计算各帧所述待检测目标图像中前一帧和后一帧的图像中同一所述直线段的斜率差Δk:
Δk=|k1-k2| (4);
其中,k1表示前一帧图像的所述直线段的所述直线斜率;k2表示后一帧图像的所述直线段的所述直线斜率;
S53:利用公式(5)判断所述云台摄像机是否位移:
Figure FDA0002476127180000032
其中,P(D,k)表示判定函数,th1表示距离差阈值,th2表示斜率差阈值;当P(D,k)=0时,表示所述云台摄像机未移位;当P(D,k)=1时,表示所述云台摄像机移位。
CN202010364127.7A 2020-04-30 2020-04-30 云台像机移位检测方法 Active CN111583341B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010364127.7A CN111583341B (zh) 2020-04-30 2020-04-30 云台像机移位检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010364127.7A CN111583341B (zh) 2020-04-30 2020-04-30 云台像机移位检测方法

Publications (2)

Publication Number Publication Date
CN111583341A true CN111583341A (zh) 2020-08-25
CN111583341B CN111583341B (zh) 2023-05-23

Family

ID=72126436

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010364127.7A Active CN111583341B (zh) 2020-04-30 2020-04-30 云台像机移位检测方法

Country Status (1)

Country Link
CN (1) CN111583341B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114339211A (zh) * 2021-12-30 2022-04-12 武汉微创光电股份有限公司 云台偏移检测方法、装置、设备及可读存储介质
CN114566052A (zh) * 2022-04-27 2022-05-31 华南理工大学 一种基于车流方向判别高速公路车流监控设备转动的方法
CN118279784A (zh) * 2024-02-18 2024-07-02 山东高速集团有限公司 面向云台摄像机的事件动态巡检方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740809A (zh) * 2016-01-28 2016-07-06 东南大学 一种基于机载摄像机的高速公路车道线检测方法
CN106529493A (zh) * 2016-11-22 2017-03-22 北京联合大学 一种基于透视图的鲁棒性多车道线检测方法
EP3506156A1 (en) * 2017-12-29 2019-07-03 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for detecting lane line, and medium
WO2020048027A1 (zh) * 2018-09-06 2020-03-12 惠州市德赛西威汽车电子股份有限公司 一种基于动态感兴趣区域的鲁棒性车道线检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740809A (zh) * 2016-01-28 2016-07-06 东南大学 一种基于机载摄像机的高速公路车道线检测方法
CN106529493A (zh) * 2016-11-22 2017-03-22 北京联合大学 一种基于透视图的鲁棒性多车道线检测方法
EP3506156A1 (en) * 2017-12-29 2019-07-03 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for detecting lane line, and medium
WO2020048027A1 (zh) * 2018-09-06 2020-03-12 惠州市德赛西威汽车电子股份有限公司 一种基于动态感兴趣区域的鲁棒性车道线检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡永;: "基于视频的公路交通事件检测算法研究" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114339211A (zh) * 2021-12-30 2022-04-12 武汉微创光电股份有限公司 云台偏移检测方法、装置、设备及可读存储介质
CN114566052A (zh) * 2022-04-27 2022-05-31 华南理工大学 一种基于车流方向判别高速公路车流监控设备转动的方法
CN114566052B (zh) * 2022-04-27 2022-08-12 华南理工大学 一种基于车流方向判别高速公路车流监控设备转动的方法
CN118279784A (zh) * 2024-02-18 2024-07-02 山东高速集团有限公司 面向云台摄像机的事件动态巡检方法、装置及电子设备

Also Published As

Publication number Publication date
CN111583341B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
TWI409718B (zh) 移動中車輛之車牌定位方法
CN111967498A (zh) 基于毫米波雷达和视觉融合的夜间目标检测和跟踪方法
CN110033431B (zh) 钢桥表面锈蚀区域检测的非接触式检测装置及检测方法
US8488878B2 (en) Sky detection system used in image extraction device and method using sky detection system
KR20130105952A (ko) 차량 번호판 인식 방법과 그 장치
WO2014128688A1 (en) Method, system and software module for foreground extraction
CN114926456B (zh) 一种半自动标注和改进深度学习的铁轨异物检测方法
JP2008046903A (ja) 対象個数検出装置および対象個数検出方法
CN111583341B (zh) 云台像机移位检测方法
CN113052170B (zh) 一种无约束场景下的小目标车牌识别方法
CN102393902A (zh) 基于h_s二维直方图和区域颜色匹配的车辆颜色检测方法
CN109800714A (zh) 一种基于人工智能的船舶检测系统及方法
CN112184644A (zh) 一种基于多光照强度的气密性气泡检测方法及装置
CN112241982A (zh) 一种图像处理方法、装置及机器可读存储介质
KR20230003827A (ko) 차량 번호판 인식율 개선을 위한 이미지 처리 장치 및 이를 이용한 이미지 처리 방법
CN118736010A (zh) 一种适用于低光照场景的动态视觉slam方法
CN113361467A (zh) 基于领域适应的车牌识别方法
US9727780B2 (en) Pedestrian detecting system
CN114613006B (zh) 一种远距离手势识别方法及装置
KR102338912B1 (ko) 수퍼 레졸루션 기법을 이용한 차량 번호판 인식 방법
CN106951831B (zh) 一种基于深度摄像机的行人检测跟踪方法
CN110688876A (zh) 一种基于视觉的车道线检测方法及装置
JP4918615B2 (ja) 対象個数検出装置および対象個数検出方法
CN117475421A (zh) 一种车牌曝光补偿方法、装置与电子设备
Abdusalomov et al. Robust shadow removal technique for improving image enhancement based on segmentation method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant