CN112364796B - 一种基于深度学习的目标速度检测方法及系统 - Google Patents
一种基于深度学习的目标速度检测方法及系统 Download PDFInfo
- Publication number
- CN112364796B CN112364796B CN202011295469.4A CN202011295469A CN112364796B CN 112364796 B CN112364796 B CN 112364796B CN 202011295469 A CN202011295469 A CN 202011295469A CN 112364796 B CN112364796 B CN 112364796B
- Authority
- CN
- China
- Prior art keywords
- target object
- point
- target
- detection time
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims abstract description 104
- 238000013135 deep learning Methods 0.000 claims abstract description 37
- 238000006073 displacement reaction Methods 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 3
- 238000011160 research Methods 0.000 abstract description 5
- 230000009286 beneficial effect Effects 0.000 abstract description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
- G01P3/64—Devices characterised by the determination of the time taken to traverse a fixed distance
- G01P3/68—Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的目标速度检测方法和系统。获取目标物体沿其运动轨迹的视频信息;设定n个检测时间点,且基于n个检测时间点将所述视频信息译码并提取对应的n帧图像;基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离;基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度。利用深度学习算法能够取得更加精确的数据信息,有利于此数据信息更好地服务于其它研究。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于深度学习的目标速度检测方法及系统。
背景技术
深度学习是机器学习领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。
利用深度学习算法能够取得更加精确的数据信息,有利于此数据信息更好地服务于其它研究。
发明内容
基于上述背景技术中存在的技术问题,本发明提出一种基于深度学习的目标速度检测方法及系统。
本发明提出的一种基于深度学习的目标速度检测方法,包括以下步骤:
获取目标物体沿其运动轨迹的视频信息;
设定n个检测时间点,且基于n个检测时间点将所述视频信息译码并提取对应的n帧图像;
基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离;
基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度。
在其中一个实施例中,所述基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离,包括:
基于第a帧图像中目标物体的形状选取其中心点,记为Ma;
采用预先训练的深度学习的神经元网络模型识别Ma和预设参考点M0的像素点;
通过对第a帧图像进行像素标定,建立世界坐标系中的位置点与所述第a帧图像中的像素点之间的投射变换关系;
分别根据Ma和预设参考点M0的像素点与所述投射变换关系,确定Ma和M0在所述世界地标系中的位置;
根据Ma和M0在所述世界地标系中的位置计算出在第a个检测时间点目标物体的位移,记为Sa;
其中,1≤a≤n。
在其中一个实施例中,所述基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,具体包括:
第b帧图像中目标物体的中心点与预设参考点间的距离为所述Mb和M0在所述世界地标系中的位置之间的距离,即在第b个检测时间点目标物体的位移Sb;
基于第b+1与第b帧图像中目标物体的中心点与预设参考点间的距离计算目标物体在第b+1与第b个检测时间点间的移动速度vb,vb=(Sb+1-Sb)/(tb+1-tb),其中,tb+1为第b+1个检测时间点,单位为秒,tb为第b个检测时间点,单位为秒;
基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,记为v,v=(v1+v2+v3+……+vb)/(n-1);
其中,1≤b≤n-1。
在其中一个实施例中,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔均相等。
在其中一个实施例中,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔不相等。
本发明提出的一种基于深度学习的目标速度检测系统,包括:
信息录入模块,用于获取目标物体沿其运动轨迹的视频信息;
图形提取模块,用于设定n个检测时间点,且基于n个检测时间点将所述视频信息译码并提取对应的n帧图像;
距离计算模块,用于基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离;
速度计算模块,用于基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度。
在其中一个实施例中,所述距离计算模块具体用于:
基于第a帧图像中目标物体的形状选取其中心点,记为Ma;
采用预先训练的深度学习的神经元网络模型识别Ma和预设参考点M0的像素点;
通过对第a帧图像进行像素标定,建立世界坐标系中的位置点与所述第a帧图像中的像素点之间的投射变换关系;
分别根据Ma和预设参考点M0的像素点与所述投射变换关系,确定Ma和M0在所述世界地标系中的位置;
根据Ma和M0在所述世界地标系中的位置计算出在第a个检测时间点目标物体的位移,记为Sa;
其中,1≤a≤n。
在其中一个实施例中,所述速度计算模块具体用于:
第b帧图像中目标物体的中心点与预设参考点间的距离为所述Mb和M0在所述世界地标系中的位置之间的距离,即在第b个检测时间点目标物体的位移Sb;
基于第b+1与第b帧图像中目标物体的中心点与预设参考点间的距离计算目标物体在第b+1与第b个检测时间点间的移动速度vb,vb=(Sb+1-Sb)/(tb+1-tb),其中,tb+1为第b+1个检测时间点,单位为秒,tb为第b个检测时间点,单位为秒;
基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,记为v,v=(v1+v2+v3+……+vb)/(n-1);
其中,1≤b≤n-1。
在其中一个实施例中,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔相等或不相等。
在其中一个实施例中,还包括速度输出模块,用于输出目标物体的目标移动速度。
本发明提出的基于深度学习的目标速度检测方法和系统,实现利用人工智能技术,以更科学的方法对目标物体的移动速度进行检测、分析和计算,为目标物体的移动速度用于其它研究中提供更精确的数据基础。
本发明首先采集目标物体在其运动轨迹上的视频信息,并分别提取在不同检测时间点处的帧图像,以通过图像信息对目标物体的运动状态做分析。在每一帧图像中,采用预先训练的深度学习的神经元网络模型识别出目标物体的中心点和预设参考点的像素点,再结合世界坐标系中的位置点与像素点之间的投射变换关系得出所述中心点与预设参考点在世界地标系中的位置,实现帧图像中像素点与现实中位移的转化,为分析目标物体的移动速度提供数据基础;最后根据目标物体的实际位移和检测时间点来计算其移动速度。通过上述方式,有利于提高样本数据分析的精度,从而提高输出结果的准确度。当上述目标速度检测方法被运用到智能交通领域时,能够为交通参与者、管控者、执行者提供数据参考,有利于帮助降低交通危险情况的发生频率。
附图说明
图1为一种基于深度学习的目标速度检测方法的步骤示意图;
图2为一种基于深度学习的目标速度检测系统的结构示意图。
具体实施方式
下面,通过具体实施例对本发明的技术方案进行详细说明。
如图1-2所示,图1为本发明提出的一种一种基于深度学习的目标速度检测方法及系统。
参照图1,本发明提出的一种基于深度学习的目标速度检测方法,包括以下步骤:
S1、获取目标物体沿其运动轨迹的视频信息;
S2、设定n个检测时间点,且基于n个检测时间点将所述视频信息译码并提取对应的n帧图像;
S3、基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离;
S4、基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度。
首先采集目标物体在其运动轨迹上的视频信息,并分别提取在不同检测时间点处的帧图像,以通过图像信息对目标物体的运动状态做分析。在每一帧图像中,采用预先训练的深度学习的神经元网络模型识别出目标物体的中心点和预设参考点的像素点,再结合世界坐标系中的位置点与像素点之间的投射变换关系得出所述中心点与预设参考点在世界地标系中的位置,实现帧图像中像素点与现实中位移的转化,为分析目标物体的移动速度提供数据基础;最后根据目标物体的实际位移和检测时间点来计算其移动速度。
在其中一个实施例中,步骤S3中,所述基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离,包括:
基于第a帧图像中目标物体的形状选取其中心点,记为Ma;
采用预先训练的深度学习的神经元网络模型识别Ma和预设参考点M0的像素点;
通过对第a帧图像进行像素标定,建立世界坐标系中的位置点与所述第a帧图像中的像素点之间的投射变换关系;
分别根据Ma和预设参考点M0的像素点与所述投射变换关系,确定Ma和M0在所述世界地标系中的位置;
根据Ma和M0在所述世界地标系中的位置计算出在第a个检测时间点目标物体的位移,记为Sa;
其中,1≤a≤n。
上述方式,将计算现实中目标物体在某时间段内的移动距离的方式,转化为,通过分析相邻两帧图像中像素点的位置变化来获取,不仅简化了现实中采集目标物体运动轨迹状态的难度,而且提高了结果获取的精度。
在其中一个实施例中,步骤S4中,所述基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,具体包括:
第b帧图像中目标物体的中心点与预设参考点间的距离为所述Mb和M0在所述世界地标系中的位置之间的距离,即在第b个检测时间点目标物体的位移Sb;
基于第b+1与第b帧图像中目标物体的中心点与预设参考点间的距离计算目标物体在第b+1与第b个检测时间点间的移动速度vb,vb=(Sb+1-Sb)/(tb+1-tb),其中,tb+1为第b+1个检测时间点,单位为秒,tb为第b个检测时间点,单位为秒;Sb+1为第b+1帧图像中目标物体的中心点与预设参考点间的距离,即Mb+1和M0在所述世界地标系中的位置之间的距离,即在第b+1个检测时间点目标物体的位移Sb+1;
基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,记为v,v=(v1+v2+v3+……+vb)/(n-1);进一步通过计算多个检测时间点对应的目标物体的移动速度的平均值,有利于进一步提高目标移动速度的精度,降低数据值干扰;
其中,1≤b≤n-1。
在其中一个实施例中,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔均相等。
在其中一个实施例中,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔不相等。
上述任意两个相邻检测时间点的时间间隔可根据不同的应用场景、检测模式和用户需求进行设定,以满足不同的条件需求。
参照图2,图2为本发明提出的一种基于深度学习的目标速度检测系统,包括:
信息录入模块,用于获取目标物体沿其运动轨迹的视频信息;
图形提取模块,用于设定n个检测时间点,且基于n个检测时间点将所述视频信息译码并提取对应的n帧图像;
距离计算模块,用于基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离;
速度计算模块,用于基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度。
首先采集目标物体在其运动轨迹上的视频信息,并分别提取在不同检测时间点处的帧图像,以通过图像信息对目标物体的运动状态做分析。在每一帧图像中,采用预先训练的深度学习的神经元网络模型识别出目标物体的中心点和预设参考点的像素点,再结合世界坐标系中的位置点与像素点之间的投射变换关系得出所述中心点与预设参考点在世界地标系中的位置,实现帧图像中像素点与现实中位移的转化,为分析目标物体的移动速度提供数据基础;最后根据目标物体的实际位移和检测时间点来计算其移动速度。
在其中一个实施例中,所述距离计算模块具体用于:
基于第a帧图像中目标物体的形状选取其中心点,记为Ma;
采用预先训练的深度学习的神经元网络模型识别Ma和预设参考点M0的像素点;
通过对第a帧图像进行像素标定,建立世界坐标系中的位置点与所述第a帧图像中的像素点之间的投射变换关系;
分别根据Ma和预设参考点M0的像素点与所述投射变换关系,确定Ma和M0在所述世界地标系中的位置;
根据Ma和M0在所述世界地标系中的位置计算出在第a个检测时间点目标物体的位移,记为Sa;
其中,1≤a≤n。
上述方式,将计算现实中目标物体在某时间段内的移动距离的方式,转化为,通过分析相邻两帧图像中像素点的位置变化来获取,不仅简化了现实中采集目标物体运动轨迹状态的难度,而且提高了结果获取的精度。
在其中一个实施例中,所述速度计算模块具体用于:
第b帧图像中目标物体的中心点与预设参考点间的距离为所述Mb和M0在所述世界地标系中的位置之间的距离,即在第b个检测时间点目标物体的位移Sb;
基于第b+1与第b帧图像中目标物体的中心点与预设参考点间的距离计算目标物体在第b+1与第b个检测时间点间的移动速度vb,vb=(Sb+1-Sb)/(tb+1-tb),其中,tb+1为第b+1个检测时间点,单位为秒,tb为第b个检测时间点,单位为秒;Sb+1为第b+1帧图像中目标物体的中心点与预设参考点间的距离,即Mb+1和M0在所述世界地标系中的位置之间的距离,即在第b+1个检测时间点目标物体的位移Sb+1;
基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,记为v,v=(v1+v2+v3+……+vb)/(n-1);进一步通过计算多个检测时间点对应的目标物体的移动速度的平均值,有利于进一步提高目标移动速度的精度,降低数据值干扰;
其中,1≤b≤n-1。
在其中一个实施例中,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔相等或不相等。上述任意两个相邻检测时间点的时间间隔可根据不同的应用场景、检测模式和用户需求进行设定,以满足不同的条件需求。
在进一步的实施例中,还包括速度输出模块,用于输出目标物体的目标移动速度。该速度输出模块包括显示模块和/或语音模块,用于对目标物体的目标移动速度进行显示和播报,以在不同应用场景中对用户进行多方位的提醒和警示。
本实施方式提出的基于深度学习的目标速度检测方法和系统,实现利用人工智能技术,以更科学的方法对目标物体的移动速度进行检测、分析和计算,为目标物体的移动速度用于其它研究中提供更精确的数据基础。
本实施方式首先采集目标物体在其运动轨迹上的视频信息,并分别提取在不同检测时间点处的帧图像,以通过图像信息对目标物体的运动状态做分析。在每一帧图像中,采用预先训练的深度学习的神经元网络模型识别出目标物体的中心点和预设参考点的像素点,再结合世界坐标系中的位置点与像素点之间的投射变换关系得出所述中心点与预设参考点在世界地标系中的位置,实现帧图像中像素点与现实中位移的转化,为分析目标物体的移动速度提供数据基础;最后根据目标物体的实际位移和检测时间点来计算其移动速度。通过上述方式,有利于提高样本数据分析的精度,从而提高输出结果的准确度。当上述目标速度检测方法被运用到智能交通领域时,能够为交通参与者、管控者、执行者提供数据参考,有利于帮助降低交通危险情况的发生频率。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (8)
1.一种基于深度学习的目标速度检测方法,其特征在于,包括以下步骤:
获取目标物体沿其运动轨迹的视频信息;
设定n个检测时间点,且基于n个检测时间点将所述视频信息译码并提取对应的n帧图像;
基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离;
基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度;
所述基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离,包括:
基于第a帧图像中目标物体的形状选取其中心点,记为Ma;
采用预先训练的深度学习的神经元网络模型识别Ma和预设参考点M0的像素点;
通过对第a帧图像进行像素标定,建立世界坐标系中的位置点与所述第a帧图像中的像素点之间的投射变换关系;
分别根据Ma和预设参考点M0的像素点与所述投射变换关系,确定Ma和M0在所述世界坐标系中的位置;
根据Ma和M0在所述世界坐标系中的位置计算出在第a个检测时间点目标物体的位移,记为Sa;
其中,1≤a≤n。
2.根据权利要求1所述的基于深度学习的目标速度检测方法,其特征在于,所述基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,具体包括:
第b帧图像中目标物体的中心点与预设参考点间的距离为所述Mb和M0在所述世界坐标系中的位置之间的距离,即在第b个检测时间点目标物体的位移Sb;
基于第b+1与第b帧图像中目标物体的中心点与预设参考点间的距离计算目标物体在第b+1与第b个检测时间点间的移动速度vb,vb=(Sb+1-Sb)/(tb+1-tb),其中,tb+1为第b+1个检测时间点,单位为秒,tb为第b个检测时间点,单位为秒;
基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,记为v,v=(v1+v2+v3+……+vb)/(n-1);
其中,1≤b≤n-1。
3.根据权利要求1所述的基于深度学习的目标速度检测方法,其特征在于,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔均相等。
4.根据权利要求1所述的基于深度学习的目标速度检测方法,其特征在于,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔不相等。
5.一种基于深度学习的目标速度检测系统,其特征在于,包括:
信息录入模块,用于获取目标物体沿其运动轨迹的视频信息;
图形提取模块,用于设定n个检测时间点,且基于n个检测时间点将所述视频信息译码并提取对应的n帧图像;
距离计算模块,用于基于每一帧图像中目标物体的形状选取其中心点,并计算所述中心点与预设参考点间的距离;
速度计算模块,用于基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度;
所述距离计算模块具体用于:
基于第a帧图像中目标物体的形状选取其中心点,记为Ma;
采用预先训练的深度学习的神经元网络模型识别Ma和预设参考点M0的像素点;
通过对第a帧图像进行像素标定,建立世界坐标系中的位置点与所述第a帧图像中的像素点之间的投射变换关系;
分别根据Ma和预设参考点M0的像素点与所述投射变换关系,确定Ma和M0在所述世界坐标系中的位置;
根据Ma和M0在所述世界坐标系中的位置计算出在第a个检测时间点目标物体的位移,记为Sa;
其中,1≤a≤n。
6.根据权利要求5所述的基于深度学习的目标速度检测系统,其特征在于,所述速度计算模块具体用于:
第b帧图像中目标物体的中心点与预设参考点间的距离为所述Mb和M0在所述世界坐标系中的位置之间的距离,即在第b个检测时间点目标物体的位移Sb;
基于第b+1与第b帧图像中目标物体的中心点与预设参考点间的距离计算目标物体在第b+1与第b个检测时间点间的移动速度vb,vb=(Sb+1-Sb)/(tb+1-tb),其中,tb+1为第b+1个检测时间点,单位为秒,tb为第b个检测时间点,单位为秒;
基于n帧图像中目标物体的中心点与预设参考点间的距离计算目标物体的目标移动速度,记为v,v=(v1+v2+v3+……+vb)/(n-1);
其中,1≤b≤n-1。
7.根据权利要求5所述的基于深度学习的目标速度检测系统,其特征在于,所述n个检测时间点中,任意两个相邻检测时间点的时间间隔相等或不相等。
8.根据权利要求5所述的基于深度学习的目标速度检测系统,其特征在于,还包括速度输出模块,用于输出目标物体的目标移动速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011295469.4A CN112364796B (zh) | 2020-11-18 | 2020-11-18 | 一种基于深度学习的目标速度检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011295469.4A CN112364796B (zh) | 2020-11-18 | 2020-11-18 | 一种基于深度学习的目标速度检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112364796A CN112364796A (zh) | 2021-02-12 |
CN112364796B true CN112364796B (zh) | 2023-08-01 |
Family
ID=74533526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011295469.4A Active CN112364796B (zh) | 2020-11-18 | 2020-11-18 | 一种基于深度学习的目标速度检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112364796B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN119558731A (zh) * | 2025-01-23 | 2025-03-04 | 安徽省特种设备检测院 | 一种基于视觉的起重机智慧考试系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105225241A (zh) * | 2015-09-25 | 2016-01-06 | 广州极飞电子科技有限公司 | 无人机深度图像的获取方法及无人机 |
CN105678808A (zh) * | 2016-01-08 | 2016-06-15 | 浙江宇视科技有限公司 | 运动目标跟踪方法及装置 |
CN109686088A (zh) * | 2018-12-29 | 2019-04-26 | 重庆同济同枥信息技术有限公司 | 一种交通视频告警方法、设备及系统 |
JP2019101967A (ja) * | 2017-12-07 | 2019-06-24 | 公立大学法人会津大学 | 動画像距離算出装置および動画像距離算出用プログラム |
CN110189363A (zh) * | 2019-05-30 | 2019-08-30 | 南京林业大学 | 一种机场场面移动目标低视角视频测速方法 |
CN111047879A (zh) * | 2019-12-24 | 2020-04-21 | 苏州奥易克斯汽车电子有限公司 | 一种车辆超速检测方法 |
CN111274914A (zh) * | 2020-01-13 | 2020-06-12 | 目骉资讯有限公司 | 一种基于深度学习的马匹速度计算系统及方法 |
-
2020
- 2020-11-18 CN CN202011295469.4A patent/CN112364796B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105225241A (zh) * | 2015-09-25 | 2016-01-06 | 广州极飞电子科技有限公司 | 无人机深度图像的获取方法及无人机 |
CN105678808A (zh) * | 2016-01-08 | 2016-06-15 | 浙江宇视科技有限公司 | 运动目标跟踪方法及装置 |
JP2019101967A (ja) * | 2017-12-07 | 2019-06-24 | 公立大学法人会津大学 | 動画像距離算出装置および動画像距離算出用プログラム |
CN109686088A (zh) * | 2018-12-29 | 2019-04-26 | 重庆同济同枥信息技术有限公司 | 一种交通视频告警方法、设备及系统 |
CN110189363A (zh) * | 2019-05-30 | 2019-08-30 | 南京林业大学 | 一种机场场面移动目标低视角视频测速方法 |
CN111047879A (zh) * | 2019-12-24 | 2020-04-21 | 苏州奥易克斯汽车电子有限公司 | 一种车辆超速检测方法 |
CN111274914A (zh) * | 2020-01-13 | 2020-06-12 | 目骉资讯有限公司 | 一种基于深度学习的马匹速度计算系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112364796A (zh) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Camurri et al. | Recognizing emotion from dance movement: comparison of spectator recognition and automated techniques | |
EP1748387B1 (en) | Devices for classifying the arousal state of the eyes of a driver, corresponding method and computer readable storage medium | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
KR101441333B1 (ko) | 인체 부분 검출 장치 및 그 방법 | |
US20110050939A1 (en) | Image processing apparatus, image processing method, program, and electronic device | |
US8879789B1 (en) | Object analysis using motion history | |
CN109325404A (zh) | 一种公交场景下的人数统计方法 | |
Fei et al. | Flow-pose net: an effective two-stream network for fall detection | |
Yargıç et al. | A lip reading application on MS Kinect camera | |
CN117122887A (zh) | 一种ai教练系统 | |
CN112364796B (zh) | 一种基于深度学习的目标速度检测方法及系统 | |
JP2014116716A (ja) | 追尾装置 | |
CN113132730A (zh) | 一种基于多帧内容的视频数据智能压缩方法及装置 | |
Chakravarthi et al. | Event-based sensing for improved traffic detection and tracking in intelligent transport systems toward sustainable mobility | |
Nagori et al. | Communication interface for deaf-mute people using microsoft kinect | |
CN119091492A (zh) | 基于rPPG信号及三维法向量辅助的人脸情绪感知识别方法 | |
CN111528867A (zh) | 用于儿童adhd筛查评估系统的表情特征向量确定方法 | |
Shahira et al. | Assistive technologies for visual, hearing, and speech impairments: Machine learning and deep learning solutions | |
CN116793364A (zh) | 一种基于航位推算的室内定位系统及方法 | |
Lee et al. | Object detection system for the blind with voice command and guidance | |
CN115272954B (zh) | 一种客流统计装置及智能终端 | |
CN111126170A (zh) | 一种基于目标检测与追踪的视频动态物检测方法 | |
CN115620407A (zh) | 一种信息交流方法、装置及车辆 | |
Lakshmi et al. | Artificial Vision–Yolov8 Algorithm For Objects And Impediments Detection | |
CN112784631A (zh) | 一种基于深度神经网络进行人脸情绪识别的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |