[go: up one dir, main page]

CN118397517B - 一种基于人工智能的视频图像特征追踪方法及装置 - Google Patents

一种基于人工智能的视频图像特征追踪方法及装置 Download PDF

Info

Publication number
CN118397517B
CN118397517B CN202410827859.3A CN202410827859A CN118397517B CN 118397517 B CN118397517 B CN 118397517B CN 202410827859 A CN202410827859 A CN 202410827859A CN 118397517 B CN118397517 B CN 118397517B
Authority
CN
China
Prior art keywords
image
target
frame image
sub
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410827859.3A
Other languages
English (en)
Other versions
CN118397517A (zh
Inventor
曹弯弯
李明
宫帅
吴极
余东波
尹晓宇
张敏
王海陆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information and Telecommunication Branch of State Grid Anhui Electric Power Co Ltd
Original Assignee
Information and Telecommunication Branch of State Grid Anhui Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information and Telecommunication Branch of State Grid Anhui Electric Power Co Ltd filed Critical Information and Telecommunication Branch of State Grid Anhui Electric Power Co Ltd
Priority to CN202410827859.3A priority Critical patent/CN118397517B/zh
Publication of CN118397517A publication Critical patent/CN118397517A/zh
Application granted granted Critical
Publication of CN118397517B publication Critical patent/CN118397517B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种基于人工智能的视频图像特征追踪方法,属于图像处理技术领域,方法包括:获取目标视频节,基于目标视频节获取第M帧图像;基于神经网络模型确定第M帧图像中的目标图像,其中,目标图像为被追踪特征的图像;获取第M‑N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M‑N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M‑N≥1;基于第M+N帧图像中的目标图像与第M‑N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向;基于移动速度与移动方向在第M+N帧图像中显示预测目标图像。本申请提供了一种基于人工智能的视频图像特征追踪装置及一种电子设备。

Description

一种基于人工智能的视频图像特征追踪方法及装置
技术领域
本申请涉及图像处理领域,尤其涉及一种基于人工智能的视频图像特征追踪方法及装置。
背景技术
随着信息技术的迅猛发展,人工智能(AI)已逐渐渗透到我们生活的方方面面,尤其在视频图像处理领域,其应用日益广泛。视频图像特征追踪技术,作为人工智能在视频处理领域的重要分支,已成为研究热点和前沿技术。
视频图像特征追踪技术的核心在于通过计算机视觉和机器学习算法,实现对视频图像中特定目标的自动识别和持续追踪。这一技术涉及多个学科领域的知识,包括图像处理、模式识别、机器学习、人工智能等。通过运用这些技术,我们可以对视频图像中的目标进行准确、高效的定位和跟踪,从而为后续的智能分析、决策和控制提供重要支持。
对于一段视频图像中特征的持续追踪,一般通过对视频图像中每一帧画面进行特征提取进行,但是对于帧率较高的视频,对每一帧画面进行进行特征会消耗大量算力,处理速度较慢。
发明内容
本申请实施例提供一种基于人工智能的视频图像特征追踪方法及装置,以改善上述问题。
为达到上述目的,本申请采用如下技术方案:
第一方面,本申请实施例提出了一种基于人工智能的视频图像特征追踪方法,方法包括:
获取目标视频节,基于目标视频节获取第M帧图像;
基于神经网络模型确定第M帧图像中的目标图像并显示,其中,目标图像为被追踪特征的图像;
获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1;
基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向;
基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像。
结合第一方面,在一些实施方式中,获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1,包括:
基于第M帧图像中的目标图像确定第一目标轮廓;
基于第M-N帧图像确定第M-N帧图像中的目标图像的第二目标轮廓;
基于第一目标轮廓形状对第二目标轮廓形状进行修正,得到第三目标轮廓形状;
基于第三目标轮廓形状确定第M-N帧图像中的目标图像。
结合第一方面,在一些实施方式中,获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1,包括:
基于第M帧图像中的目标图像确定第一目标轮廓;
基于第M+N帧图像确定第M+N帧图像中的目标图像的第四目标轮廓;
基于第一目标轮廓形状对第四目标轮廓形状进行修正,得到第五目标轮廓形状;
基于第五目标轮廓形状确定第M+N帧图像中的目标图像。
结合第一方面,在一些实施方式中,基于第M-N帧图像确定第M-N帧图像中的目标图像的第二目标轮廓,包括:
分割第M帧图像以形成多个多个第一子图像;
确定多个第一子图像中的第一边界子图像,第一边界子图像为形成第M-N帧图像中的目标图像轮廓的第一子图像;
连接多个第一边界子图像以形成第二目标轮廓。
结合第一方面,在一些实施方式中,确定多个第一子图像中的第一边界子图像,第一边界子图像为形成第M-N帧图像中的目标图像轮廓的第一子图像,包括:
确定每一个第一子图像的视觉特征参数,特征参数用于表征第一子图像的视觉特征;
将每一个第一子图像的视觉特征参数与相邻的四个第一子图像的视觉特征参数相比对,若一个第一子图像相邻的四个第一子图像中,有且仅有一个第一子图像的视觉特征参数与其余三个第一子图像的视觉特征参数存在差异,则确定第一子图像为第一边界子图像。
结合第一方面,在一些实施方式中,确定每一个第一子图像的视觉特征参数,特征参数用于表征第一子图像的视觉特征,包括:
确定每一个第一子图像的亮度值、灰度值与色温值;
基于每一个第一子图像的亮度值、灰度值与色温值确定每一个第一子图像的视觉特征参数,并满足:
其中,为亮度值对应的第一权重,为灰度值对应的第二权重,为色温值对应的第三权重,为亮度值,为灰度值,为色温值。
结合第一方面,在一些实施方式中,基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向,包括:
分割第M-N帧图像中的目标图像,以使其形成多个尺寸相同的第一目标子图像,其中,每一个第一目标子图像具有一个第一定位点,多个第一定位点位于多个第一目标子图像上相同几何位置;
分割第M+N帧图像中的目标图像,以使其形成多个尺寸相同的第二目标子图像,其中,每一个第二目标子图像具有一个第二定位点,多个第二定位点位于多个第一目标子图像上相同几何位置,且多个第一目标子图像与多个第二目标子图像一一对应;
基于多个第一定位点与多个第二定位点确定多个移动向量,基于多个移动向量确定目标向量;
获取第M-N帧图像的与第M+N帧图像的拍摄时间间隔;
基于目标向量与时间间隔,确定被追踪特征的移动速度与移动方向。
结合第一方面,在一些实施方式中,基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像,包括:
分割第M帧图像中的目标图像,以使其形成多个尺寸相同的实际子图像,其中,每一个实际子图像具有一个第三定位点,多个第三定位点位于多个实际子图像上相同几何位置;
基于目标向量与多个第三定位点确定多个第四定位点,其中,第四定位点为第三定位点与沿目标向量加载后的点;
基于多个第四定位点确定多个预测子图像,基于多个预测子图像确定预测目标图像。
本发明实施例第二方面提出一种基于人工智能的视频图像特征追踪装置,该装置被配置为:
获取目标视频节,基于目标视频节获取第M帧图像;
基于神经网络模型确定第M帧图像中的目标图像并显示,其中,目标图像为被追踪特征的图像;
获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1;
基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向;
基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像。
结合第二方面,该装置被配置为:
获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1,包括:
基于第M帧图像中的目标图像确定第一目标轮廓;
基于第M-N帧图像确定第M-N帧图像中的目标图像的第二目标轮廓;
基于第一目标轮廓形状对第二目标轮廓形状进行修正,得到第三目标轮廓形状;
基于第三目标轮廓形状确定第M-N帧图像中的目标图像。
结合第二方面,该装置被配置为:
获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1,包括:
基于第M帧图像中的目标图像确定第一目标轮廓;
基于第M+N帧图像确定第M+N帧图像中的目标图像的第四目标轮廓;
基于第一目标轮廓形状对第四目标轮廓形状进行修正,得到第五目标轮廓形状;
基于第五目标轮廓形状确定第M+N帧图像中的目标图像。
结合第二方面,该装置被配置为:
基于第M-N帧图像确定第M-N帧图像中的目标图像的第二目标轮廓,包括:
分割第M帧图像以形成多个多个第一子图像;
确定多个第一子图像中的第一边界子图像,第一边界子图像为形成第M-N帧图像中的目标图像轮廓的第一子图像;
连接多个第一边界子图像以形成第二目标轮廓。
结合第二方面,该装置被配置为:
确定多个第一子图像中的第一边界子图像,第一边界子图像为形成第M-N帧图像中的目标图像轮廓的第一子图像,包括:
确定每一个第一子图像的视觉特征参数,特征参数用于表征第一子图像的视觉特征;
将每一个第一子图像的视觉特征参数与相邻的四个第一子图像的视觉特征参数相比对,若一个第一子图像相邻的四个第一子图像中,有且仅有一个第一子图像的视觉特征参数与其余三个第一子图像的视觉特征参数存在差异,则确定第一子图像为第一边界子图像。
结合第二方面,该装置被配置为:
确定每一个第一子图像的视觉特征参数,特征参数用于表征第一子图像的视觉特征,包括:
确定每一个第一子图像的亮度值、灰度值与色温值;
基于每一个第一子图像的亮度值、灰度值与色温值确定每一个第一子图像的视觉特征参数,并满足:并满足:
其中,为亮度值对应的第一权重,为灰度值对应的第二权重,为色温值对应的第三权重,为亮度值,为灰度值,为色温值。
结合第二方面,该装置被配置为:
基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向,包括:
分割第M-N帧图像中的目标图像,以使其形成多个尺寸相同的第一目标子图像,其中,每一个第一目标子图像具有一个第一定位点,多个第一定位点位于多个第一目标子图像上相同几何位置;
分割第M+N帧图像中的目标图像,以使其形成多个尺寸相同的第二目标子图像,其中,每一个第二目标子图像具有一个第二定位点,多个第二定位点位于多个第一目标子图像上相同几何位置,且多个第一目标子图像与多个第二目标子图像一一对应;
基于多个第一定位点与多个第二定位点确定多个移动向量,基于多个移动向量确定目标向量;
获取第M-N帧图像的与第M+N帧图像的拍摄时间间隔;
基于目标向量与时间间隔,确定被追踪特征的移动速度与移动方向。
结合第二方面,该装置被配置为:
基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像,包括:
分割第M帧图像中的目标图像,以使其形成多个尺寸相同的实际子图像,其中,每一个实际子图像具有一个第三定位点,多个第三定位点位于多个实际子图像上相同几何位置;
基于目标向量与多个第三定位点确定多个第四定位点,其中,第四定位点为第三定位点与沿目标向量加载后的点;
基于多个第四定位点确定多个预测子图像,基于多个预测子图像确定预测目标图像。
本发明实施例第三方面提出一种电子设备,电子设备包括:
至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本发明实施例第一方面提出方法。
本发明实施例第四方面提出一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例第一方面提出方法。
综上,上述方法及装置具有如下技术效果:
本申请提出的一种基于人工智能的视频图像特征追踪方法,首先获取目标视频节,基于目标视频节获取第M帧图像,然后基于神经网络模型确定第M帧图像中的目标图像并显示,其中,目标图像为被追踪特征的图像,然后获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,然后基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向,然后基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像。本申请提出的一种基于人工智能的视频图像特征追踪方法,在一个视频节中,通过对一个第M帧图像利用神经网络模型进行目标识别,即可显示第M-N帧图像、第M帧图像、第M+N帧图像三个帧画面,较对所有视频帧均进行目标识别更为节省算力,使处理的速度更快。
附图说明
图1为本申请实施例提出的一种基于人工智能的视频图像特征追踪方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例提出了一种基于人工智能的视频图像特征追踪方法,请参阅图1,包括以下步骤:
S101:获取目标视频节,基于目标视频节获取第M帧图像。
可以理解的,在视频处理中,视频节通常指的是视频中的一个特定段落或片段。这段视频由多个视频帧组成。对于一个视频节,通常是由多个视频帧组成。在进行视频图像的处理时,需将视频节拆分为多个视频帧,对于其中任意不为开头帧或结尾帧的视频帧,在本实施例中以第M帧图像表示。
S102:基于神经网络模型确定第M帧图像中的目标图像并显示,其中,目标图像为被追踪特征的图像。
在现代图像处理与计算机视觉领域,神经网络模型已成为一种强大的工具,用于识别、分类和追踪图像中的目标。神经网络模型是一种模拟人脑神经元结构的计算模型,由大量的神经元节点相互连接而成。每个节点接收输入信号,并根据一定的权重和激活函数计算输出信号。通过调整权重,神经网络可以学习和适应各种任务,在图像处理领域,卷积神经网络(CNN)是最常用的模型之一。CNN通过卷积层、池化层等结构,能够提取图像中的特征,并对其进行分类或识别。对于目标追踪任务,可以使用预训练的CNN模型来提取图像中的特征,然后利用这些特征来确定被追踪特征的位置和形状。
具体的,可以将第M帧图像输入到神经网络模型中,模型会输出一个特征图(feature map),其中每个位置都对应着图像中某个区域的特征。通过分析这个特征图,可以确定被追踪特征的位置和形状。例如,可以设置一个阈值,只有当特征图中的某个区域的特征值超过这个阈值时,才认为该区域包含被追踪特征。
对于如何基于神经网络模型确定第M帧图像中的目标图像,在另外一些实施例中,还可采用另外一些公开的技术,因此,具体过程在本申请中不做限定。
S103:获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1。
在对多个视频帧进行图像处理的过程中,若对每一个视频帧均采用神经网络模型来进行特征提取并进行目标图像的确定,必然会导致处理设备消耗大量的算力,因此,在本实施例中,对于第M-N帧图像与第M+N帧图像中的目标图像,可以采用以下步骤进行确定。
S1031:基于第M帧图像中的目标图像确定第一目标轮廓。
可以理解,对于第M帧图像,可以采用神经网络模型计算的方式,确定出第M帧图像种的目标图像。通过神经网络模型计算的方式确定的目标图像,其形状、轮廓较为精确,通过对其轮廓的提取,可以获得较为精确的轮廓图像。
S1032:基于第M-N帧图像确定第M-N帧图像中的目标图像的第二目标轮廓。
可以理解的,对于第M-N帧图像中的述目标图像,可以通过边缘算法进行提取,具体的,首先,可以分割第M帧图像以形成多个多个第一子图像,然后,确定多个第一子图像中的第一边界子图像,第一边界子图像为形成第M-N帧图像中的目标图像轮廓的第一子图像,最后,连接多个第一边界子图像以形成第二目标轮廓。通过边缘算法提取的第M-N帧图像中的述目标图像的边缘轮廓,较采用神经网络模型计算的方式其准确度较低,但由于其数据计算层数较低,因此,较采用神经网络模型计算的方式可以节省大量算力,例如,该过程可以采用家用机算机中的CPU(中央处理器)进行计算,而神经网络计算过程则采用GPU(图像处理器)进行计算。
在一些实施方式中,对于如何确定第二轮廓,可以分割第M帧图像以形成多个多个第一子图像,然后确定多个第一子图像中的第一边界子图像,第一边界子图像为形成第M-N帧图像中的目标图像轮廓的第一子图像,最后连接多个第一边界子图像以形成第二目标轮廓。
对于如何确定边界子图像,可以通过边界效应进行确定,具体的,可以根据色彩梯度、亮度梯度、灰度梯度等方式进行。具体的,首先可以确定每一个第一子图像的视觉特征参数,特征参数用于表征第一子图像的视觉特征,然后将每一个第一子图像的视觉特征参数与相邻的四个第一子图像的视觉特征参数相比对,若一个第一子图像相邻的四个第一子图像中,有且仅有一个第一子图像的视觉特征参数与其余三个第一子图像的视觉特征参数存在差异,则确定第一子图像为第一边界子图像。
对于特征参数,作为一种实施方式,为了提高其准确性,可以对每一个第一子图像的综合视觉进行数据量化。具体的,首先确定每一个第一子图像的亮度值、灰度值与色温值,然后基于每一个第一子图像的亮度值、灰度值与色温值确定每一个第一子图像的视觉特征参数,并满足:
其中,为亮度值对应的第一权重,为灰度值对应的第二权重,为色温值对应的第三权重,为亮度值,为灰度值,为色温值。
可以理解的,通过上述方式确定的特征参数,其综合了亮度值、灰度值以及色温值,因此其准确程度较高。
S1033:基于第一目标轮廓形状对第二目标轮廓形状进行修正,得到第三目标轮廓形状。
可以理解的,由于第一目标轮廓是通过神经网络计算得出的,其准确程度较高,因此,以第一目标轮廓修正第二目标轮廓,可以得到第三目标轮廓形状。具体的修正过程可以采用形状拟合等方式,在此不做限定。
S1034:基于第三目标轮廓形状确定第M-N帧图像中的目标图像。
可以理解的,在第三目标轮廓形状后,可以通过填充轮廓等方式,确定在第M-N帧图像中的目标图像。
对于第M-N帧图像中的目标图像,可以采用以下方式进行确定。
S1035:基于第M帧图像中的目标图像确定第一目标轮廓;
S1036:基于第M+N帧图像确定第M+N帧图像中的目标图像的第四目标轮廓;
S1037:基于第一目标轮廓形状对第四目标轮廓形状进行修正,得到第五目标轮廓形状;
S1038:基于第五目标轮廓形状确定第M+N帧图像中的目标图像。
对于步骤S1035-步骤S1038,可以参阅步骤S1031-步骤S1034,具体过程在此不做赘述。
S104:基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向。
可以理解的,在确定了第M+N帧图像中的目标图像与第M-N帧图像中的目标图像后,可以根据第M+N帧图像与第M-N帧图像中的目标图像的位置的变化,确定被追踪特征的移动速度与移动方向。
具体的,作为一种实施方式,首先,可以分割第M-N帧图像中的目标图像,以使其形成多个尺寸相同的第一目标子图像,其中,每一个第一目标子图像具有一个第一定位点,多个第一定位点位于多个第一目标子图像上相同几何位置。然后,分割第M+N帧图像中的目标图像,以使其形成多个尺寸相同的第二目标子图像,其中,每一个第二目标子图像具有一个第二定位点,多个第二定位点位于多个第一目标子图像上相同几何位置,且多个第一目标子图像与多个第二目标子图像一一对应,最后,基于多个第一定位点与多个第二定位点确定多个移动向量,基于多个移动向量确定目标向量。在获取目标向量,通过结合移动时间可以得出移动速度。因此,可以直接获取第M-N帧图像的与第M+N帧图像的拍摄时间间隔。
当然,在另外一些实施方式中,可以通过其他一些方式获取移动时间,在此不做限定。最后,即可以基于目标向量与时间间隔,确定被追踪特征的移动速度与移动方向。关于其计算过程在相关技术中已有公开,在此不做限定。
S105:基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像。
可以理解的,作为一种实施方式,首先可以分割第M帧图像中的目标图像,以使其形成多个尺寸相同的实际子图像,其中,每一个实际子图像具有一个第三定位点,多个第三定位点位于多个实际子图像上相同几何位置,然后基于目标向量与多个第三定位点确定多个第四定位点,其中,第四定位点为第三定位点与沿目标向量加载后的点,最后基于多个第四定位点确定多个预测子图像,基于多个预测子图像确定预测目标图像。
本申请提出的一种基于人工智能的视频图像特征追踪方法,首先获取目标视频节,基于目标视频节获取第M帧图像,然后基于神经网络模型确定第M帧图像中的目标图像并显示,其中,目标图像为被追踪特征的图像,然后获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,然后基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向,然后基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像。本申请提出的一种基于人工智能的视频图像特征追踪方法,在一个视频节中,通过对一个第M帧图像利用神经网络模型进行目标识别,即可显示第M-N帧图像、第M帧图像、第M+N帧图像三个帧画面,较对所有视频帧均进行目标识别更为节省算力,使处理的速度更快。
基于同一发明构思,本申请实施例还提出了一种基于人工智能的视频图像特征追踪装置,该装置被配置为:
获取目标视频节,基于目标视频节获取第M帧图像;
基于神经网络模型确定第M帧图像中的目标图像并显示,其中,目标图像为被追踪特征的图像;
获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1;
基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向;
基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像。
可选地,该装置被配置为:
获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1,包括:
基于第M帧图像中的目标图像确定第一目标轮廓;
基于第M-N帧图像确定第M-N帧图像中的目标图像的第二目标轮廓;
基于第一目标轮廓形状对第二目标轮廓形状进行修正,得到第三目标轮廓形状;
基于第三目标轮廓形状确定第M-N帧图像中的目标图像。
可选地,该装置被配置为:
获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,其中,M、N为大于0的自然数,且M-N≥1,包括:
基于第M帧图像中的目标图像确定第一目标轮廓;
基于第M+N帧图像确定第M+N帧图像中的目标图像的第四目标轮廓;
基于第一目标轮廓形状对第四目标轮廓形状进行修正,得到第五目标轮廓形状;
基于第五目标轮廓形状确定第M+N帧图像中的目标图像。
可选地,该装置被配置为:
基于第M-N帧图像确定第M-N帧图像中的目标图像的第二目标轮廓,包括:
分割第M帧图像以形成多个多个第一子图像;
确定多个第一子图像中的第一边界子图像,第一边界子图像为形成第M-N帧图像中的目标图像轮廓的第一子图像;
连接多个第一边界子图像以形成第二目标轮廓。
可选地,该装置被配置为:
确定多个第一子图像中的第一边界子图像,第一边界子图像为形成第M-N帧图像中的目标图像轮廓的第一子图像,包括:
确定每一个第一子图像的视觉特征参数,特征参数用于表征第一子图像的视觉特征;
将每一个第一子图像的视觉特征参数与相邻的四个第一子图像的视觉特征参数相比对,若一个第一子图像相邻的四个第一子图像中,有且仅有一个第一子图像的视觉特征参数与其余三个第一子图像的视觉特征参数存在差异,则确定第一子图像为第一边界子图像。
可选地,该装置被配置为:
确定每一个第一子图像的视觉特征参数,特征参数用于表征第一子图像的视觉特征,包括:
确定每一个第一子图像的亮度值、灰度值与色温值;
基于每一个第一子图像的亮度值、灰度值与色温值确定每一个第一子图像的视觉特征参数,并满足:并满足:
其中,为亮度值对应的第一权重,为灰度值对应的第二权重,为色温值对应的第三权重,为亮度值,为灰度值,为色温值。
可选地,该装置被配置为:
基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向,包括:
分割第M-N帧图像中的目标图像,以使其形成多个尺寸相同的第一目标子图像,其中,每一个第一目标子图像具有一个第一定位点,多个第一定位点位于多个第一目标子图像上相同几何位置;
分割第M+N帧图像中的目标图像,以使其形成多个尺寸相同的第二目标子图像,其中,每一个第二目标子图像具有一个第二定位点,多个第二定位点位于多个第一目标子图像上相同几何位置,且多个第一目标子图像与多个第二目标子图像一一对应;
基于多个第一定位点与多个第二定位点确定多个移动向量,基于多个移动向量确定目标向量;
获取第M-N帧图像的与第M+N帧图像的拍摄时间间隔;
基于目标向量与时间间隔,确定被追踪特征的移动速度与移动方向。
可选地,该装置被配置为:
基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像,包括:
分割第M帧图像中的目标图像,以使其形成多个尺寸相同的实际子图像,其中,每一个实际子图像具有一个第三定位点,多个第三定位点位于多个实际子图像上相同几何位置;
基于目标向量与多个第三定位点确定多个第四定位点,其中,第四定位点为第三定位点与沿目标向量加载后的点;
基于多个第四定位点确定多个预测子图像,基于多个预测子图像确定预测目标图像。
本申请提出的一种基于人工智能的视频图像特征追踪装置,首先获取目标视频节,基于目标视频节获取第M帧图像,然后基于神经网络模型确定第M帧图像中的目标图像并显示,其中,目标图像为被追踪特征的图像,然后获取第M-N帧图像与第M+N帧图像,基于第M帧图像中的目标图像,分别确定第M-N帧图像与第M+N帧图像中的目标图像,然后基于第M+N帧图像中的目标图像与第M-N帧图像中的目标图像,确定被追踪特征的移动速度与移动方向,然后基于移动速度与移动方向在第M+N帧图像以及第M-N帧图像中显示预测目标图像。本申请提出的一种基于人工智能的视频图像特征追踪装置,在一个视频节中,通过对一个第M帧图像利用神经网络模型进行目标识别,即可显示第M-N帧图像、第M帧图像、第M+N帧图像三个帧画面,较对所有视频帧均进行目标识别更为节省算力,使处理的速度更快。
基于同一发明构思,本申请的实施例还提出了一种电子设备,电子设备包括:
至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本申请实施例的基于人工智能的视频图像特征追踪方法。
此外,为实现上述目的,本申请的实施例还提出了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现本申请实施例的基于人工智能的视频图像特征追踪方法。
下面对电子设备的各个构成部件进行具体的介绍:
其中,处理器是电子设备的控制中心,可以是一个处理器,也可以是多个处理元件的统称。例如,处理器是一个或多个中央处理器(central processing unit,CPU),也可以是特定集成电路(application specific integrated circuit,ASIC),或者是被配置成实施本发明实施例的一个或多个集成电路,例如:一个或多个微处理器(digital signalprocessor,DSP),或,一个或者多个现场可编程门阵列(field programmable gate array,FPGA)。
可选地,处理器可以通过运行或执行存储在存储器内的软件程序,以及调用存储在存储器内的数据,执行电子设备的各种功能。
其中,存储器用于存储执行本发明方案的软件程序,并由处理器来控制执行,具体实现方式可以参考上述方法实施例,此处不再赘述。
可选地,存储器可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electrically erasable programmable read-only memory,EEPROM)、只读光盘(compactdisc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以和处理器集成在一起,也可以独立存在,并通过电子设备的接口电路与处理器耦合,本发明实施例对此不作具体限定。
收发器,用于与网络设备通信,或者与终端设备通信。
可选地,收发器可以包括接收器和发送器。其中,接收器用于实现接收功能,发送器用于实现发送功能。
可选地,收发器可以和处理器集成在一起,也可以独立存在,并通过路由器的接口电路与处理器耦合,本发明实施例对此不作具体限定。
此外,电子设备的技术效果可以参考上述方法实施例的数据传输方法的技术效果,此处不再赘述。
应理解,在本发明实施例中的处理器可以是中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本发明实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random accessmemory,RAM)可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
上述实施例,可以全部或部分地通过软件、硬件(如电路)、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行计算机指令或计算机程序时,全部或部分地产生按照本发明实施例的流程或功能。计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系,但也可能表示的是一种“和/或”的关系,具体可参考前后文进行理解。
本发明中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a, b, c, a-b, a-c, b-c, 或a-b-c,其中a,b,c可以是单个,也可以是多个。
应理解,在本发明的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

Claims (8)

1.一种基于人工智能的视频图像特征追踪方法,其特征在于,所述方法包括:
获取目标视频节,基于所述目标视频节获取第M帧图像;
基于神经网络模型确定所述第M帧图像中的目标图像并显示,其中,所述目标图像为被追踪特征的图像;
获取第M-N帧图像与第M+N帧图像,基于所述第M帧图像中的所述目标图像,分别确定所述第M-N帧图像与所述第M+N帧图像中的所述目标图像,其中,N为大于0的自然数,且M-N≥1;
基于所述第M+N帧图像中的所述目标图像与所述第M-N帧图像中的所述目标图像,确定所述被追踪特征的移动速度与移动方向,具体包括:
分割所述第M-N帧图像中的目标图像,以使其形成多个尺寸相同的第一目标子图像,其中,每一个所述第一目标子图像具有一个第一定位点,多个所述第一定位点位于多个所述第一目标子图像上相同几何位置;
分割所述第M+N帧图像中的目标图像,以使其形成多个尺寸相同的第二目标子图像,其中,每一个所述第二目标子图像具有一个第二定位点,多个所述第二定位点位于多个所述第一目标子图像上相同几何位置,且多个所述第一目标子图像与多个所述第二目标子图像一一对应;
基于多个所述第一定位点与多个所述第二定位点确定多个移动向量,基于多个所述移动向量确定目标向量;
获取所述第M-N帧图像的与所述第M+N帧图像的拍摄时间间隔;
基于所述目标向量与所述时间间隔,确定所述被追踪特征的移动速度与移动方向;
基于所述移动速度与所述移动方向在所述第M+N帧图像以及所述第M-N帧图像中显示预测目标图像,具体包括:
分割所述第M帧图像中的目标图像,以使其形成多个尺寸相同的实际子图像,其中,每一个所述实际子图像具有一个第三定位点,多个所述第三定位点位于多个所述实际子图像上相同几何位置;
基于所述目标向量与多个所述第三定位点确定多个第四定位点,其中,所述第四定位点为所述第三定位点与沿所述目标向量加载后的点;
基于多个所述第四定位点确定多个预测子图像,基于多个所述预测子图像确定预测目标图像。
2.根据权利要求1所述的一种基于人工智能的视频图像特征追踪方法,其特征在于,获取第M-N帧图像与第M+N帧图像,基于所述第M帧图像中的所述目标图像,分别确定所述第M-N帧图像与所述第M+N帧图像中的所述目标图像,其中,M、N为大于0的自然数,且M-N≥1,包括:
基于所述第M帧图像中的所述目标图像确定第一目标轮廓;
基于所述第M-N帧图像确定所述第M-N帧图像中的所述目标图像的第二目标轮廓;
基于所述第一目标轮廓形状对所述第二目标轮廓形状进行修正,得到第三目标轮廓形状;
基于所述第三目标轮廓形状确定所述第M-N帧图像中的所述目标图像。
3.根据权利要求2所述的一种基于人工智能的视频图像特征追踪方法,其特征在于,获取第M-N帧图像与第M+N帧图像,基于所述第M帧图像中的所述目标图像,分别确定所述第M-N帧图像与所述第M+N帧图像中的所述目标图像,其中,M、N为大于0的自然数,且M-N≥1,包括:
基于所述第M帧图像中的所述目标图像确定第一目标轮廓;
基于所述第M+N帧图像确定所述第M+N帧图像中的所述目标图像的第四目标轮廓;
基于所述第一目标轮廓形状对所述第四目标轮廓形状进行修正,得到第五目标轮廓形状;
基于所述第五目标轮廓形状确定所述第M+N帧图像中的所述目标图像。
4.根据权利要求3所述的一种基于人工智能的视频图像特征追踪方法,其特征在于,所述基于所述第M-N帧图像确定所述第M-N帧图像中的所述目标图像的第二目标轮廓,包括:
分割所述第M帧图像以形成多个多个第一子图像;
确定多个所述第一子图像中的第一边界子图像,所述第一边界子图像为形成所述第M-N帧图像中的所述目标图像轮廓的所述第一子图像;
连接多个所述第一边界子图像以形成所述第二目标轮廓。
5.根据权利要求4所述的一种基于人工智能的视频图像特征追踪方法,其特征在于,确定多个所述第一子图像中的第一边界子图像,所述第一边界子图像为形成所述第M-N帧图像中的所述目标图像轮廓的所述第一子图像,包括:
确定每一个所述第一子图像的视觉特征参数,所述特征参数用于表征所述第一子图像的视觉特征;
将每一个所述第一子图像的所述视觉特征参数与相邻的四个所述第一子图像的所述视觉特征参数相比对,若一个所述第一子图像相邻的四个所述第一子图像中,有且仅有一个所述第一子图像的所述视觉特征参数与其余三个所述第一子图像的所述视觉特征参数存在差异,则确定所述第一子图像为第一边界子图像。
6.根据权利要求5所述的一种基于人工智能的视频图像特征追踪方法,其特征在于,确定每一个所述第一子图像的视觉特征参数,所述特征参数用于表征所述第一子图像的视觉特征,包括:
确定每一个所述第一子图像的亮度值、灰度值与色温值;
基于每一个所述第一子图像的所述亮度值、所述灰度值与所述色温值确定每一个所述第一子图像的所述视觉特征参数GD,并满足:
其中,e1为所述亮度值对应的第一权重,e2为所述灰度值对应的第二权重,e3为所述色温值对应的第三权重,s1为所述亮度值,c1为所述灰度值,k1为所述色温值。
7.一种基于人工智能的视频图像特征追踪装置,其特征在于,该装置被配置为:
获取目标视频节,基于所述目标视频节获取第M帧图像;
基于神经网络模型确定所述第M帧图像中的目标图像并显示,其中,所述目标图像为被追踪特征的图像;
获取第M-N帧图像与第M+N帧图像,基于所述第M帧图像中的所述目标图像,分别确定所述第M-N帧图像与所述第M+N帧图像中的所述目标图像,其中,M、N为大于0的自然数,且M-N≥1;
基于所述第M+N帧图像中的所述目标图像与所述第M-N帧图像中的所述目标图像,确定所述被追踪特征的移动速度与移动方向,具体包括:
分割所述第M-N帧图像中的目标图像,以使其形成多个尺寸相同的第一目标子图像,其中,每一个所述第一目标子图像具有一个第一定位点,多个所述第一定位点位于多个所述第一目标子图像上相同几何位置;
分割所述第M+N帧图像中的目标图像,以使其形成多个尺寸相同的第二目标子图像,其中,每一个所述第二目标子图像具有一个第二定位点,多个所述第二定位点位于多个所述第一目标子图像上相同几何位置,且多个所述第一目标子图像与多个所述第二目标子图像一一对应;
基于多个所述第一定位点与多个所述第二定位点确定多个移动向量,基于多个所述移动向量确定目标向量;
获取所述第M-N帧图像的与所述第M+N帧图像的拍摄时间间隔;
基于所述目标向量与所述时间间隔,确定所述被追踪特征的移动速度与移动方向;
基于所述移动速度与所述移动方向在所述第M+N帧图像以及所述第M-N帧图像中显示预测目标图像,具体包括:
分割所述第M帧图像中的目标图像,以使其形成多个尺寸相同的实际子图像,其中,每一个所述实际子图像具有一个第三定位点,多个所述第三定位点位于多个所述实际子图像上相同几何位置;
基于所述目标向量与多个所述第三定位点确定多个第四定位点,其中,所述第四定位点为所述第三定位点与沿所述目标向量加载后的点;
基于多个所述第四定位点确定多个预测子图像,基于多个所述预测子图像确定预测目标图像。
8.一种电子设备,其特征在于,包括:
至少一个处理器;
以及,与至少一个所述处理器通信连接的存储器;其中,所述存储器存储有可被至少一个所述处理器执行的指令,指令被至少一个所述处理器执行,以使至少一个所述处理器能够执行如权利要求1-6任一项提出方法。
CN202410827859.3A 2024-06-25 2024-06-25 一种基于人工智能的视频图像特征追踪方法及装置 Active CN118397517B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410827859.3A CN118397517B (zh) 2024-06-25 2024-06-25 一种基于人工智能的视频图像特征追踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410827859.3A CN118397517B (zh) 2024-06-25 2024-06-25 一种基于人工智能的视频图像特征追踪方法及装置

Publications (2)

Publication Number Publication Date
CN118397517A CN118397517A (zh) 2024-07-26
CN118397517B true CN118397517B (zh) 2024-10-22

Family

ID=92001482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410827859.3A Active CN118397517B (zh) 2024-06-25 2024-06-25 一种基于人工智能的视频图像特征追踪方法及装置

Country Status (1)

Country Link
CN (1) CN118397517B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119313173A (zh) * 2024-12-18 2025-01-14 南京南瑞信息通信科技有限公司 一种基于图像数据的电网风险管理方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110570460A (zh) * 2019-09-06 2019-12-13 腾讯云计算(北京)有限责任公司 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN111768352A (zh) * 2020-06-30 2020-10-13 Oppo广东移动通信有限公司 图像处理方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10115005B2 (en) * 2016-08-12 2018-10-30 Qualcomm Incorporated Methods and systems of updating motion models for object trackers in video analytics
CN107316322A (zh) * 2017-06-27 2017-11-03 上海智臻智能网络科技股份有限公司 视频跟踪方法和装置、以及对象识别方法和装置
CN114973113A (zh) * 2021-02-19 2022-08-30 阿里巴巴集团控股有限公司 目标检测和追踪的方法及系统
CN115965416A (zh) * 2021-05-13 2023-04-14 京东科技控股股份有限公司 客流量的监测方法、系统、装置、设备及存储介质
CN113689460B (zh) * 2021-09-02 2023-12-15 广州市奥威亚电子科技有限公司 视频目标对象跟踪检测方法、装置、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110570460A (zh) * 2019-09-06 2019-12-13 腾讯云计算(北京)有限责任公司 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN111768352A (zh) * 2020-06-30 2020-10-13 Oppo广东移动通信有限公司 图像处理方法及装置

Also Published As

Publication number Publication date
CN118397517A (zh) 2024-07-26

Similar Documents

Publication Publication Date Title
CN109949255B (zh) 图像重建方法及设备
JP7273157B2 (ja) モデル訓練方法、装置、端末及びプログラム
CN109583340B (zh) 一种基于深度学习的视频目标检测方法
JP2022534337A (ja) ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム
WO2021151336A1 (zh) 基于注意力机制的道路图像目标检测方法及相关设备
CN112651438A (zh) 多类别图像的分类方法、装置、终端设备和存储介质
CN108629370B (zh) 一种基于深度置信网络的分类识别算法及装置
WO2022179581A1 (zh) 一种图像处理方法及相关设备
CN108416266A (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN118397517B (zh) 一种基于人工智能的视频图像特征追踪方法及装置
KR102637342B1 (ko) 대상 객체를 추적하는 방법과 장치 및 전자 장치
CN113743426B (zh) 一种训练方法、装置、设备以及计算机可读存储介质
CN111915650B (zh) 基于改进孪生网络的目标跟踪方法及系统
CN112446379A (zh) 一种动态大场景自适应智能处理方法
CN103886325A (zh) 一种分块的循环矩阵视频跟踪方法
CN113420642A (zh) 一种基于类别语义特征重加权的小样本目标检测方法及系统
CN108830170A (zh) 一种基于分层特征表示的端到端目标跟踪方法
CN118799343B (zh) 基于深度信息的植物分割方法、装置及设备
WO2024160219A1 (zh) 一种模型量化方法及其装置
CN114241230A (zh) 目标检测模型剪枝方法和目标检测方法
CN116543295A (zh) 一种基于退化图像增强的轻量化水下目标检测方法及系统
CN108875506A (zh) 人脸形状点跟踪方法、装置和系统及存储介质
CN112464740A (zh) 一种用于自顶向下姿态识别过程的图像处理方法及系统
CN111583306A (zh) 一种抗遮挡的视觉目标跟踪方法
CN112926681B (zh) 一种基于深度卷积神经网络的目标检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant