CN108898086B - 视频图像处理方法及装置、计算机可读介质和电子设备 - Google Patents
视频图像处理方法及装置、计算机可读介质和电子设备 Download PDFInfo
- Publication number
- CN108898086B CN108898086B CN201810639495.0A CN201810639495A CN108898086B CN 108898086 B CN108898086 B CN 108898086B CN 201810639495 A CN201810639495 A CN 201810639495A CN 108898086 B CN108898086 B CN 108898086B
- Authority
- CN
- China
- Prior art keywords
- convolution
- target object
- image
- tracking
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种视频图像处理方法及装置、计算机可读介质和电子设备,涉及图像处理技术领域。该视频图像处理方法包括:确定视频中当前帧图像中的目标对象位置区域;确定下一帧图像中与所述目标对象位置区域对应的目标对象跟踪图像;对目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域;其中,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数。本公开可以提高视频中目标对象的识别速度。
Description
技术领域
本公开涉及图像处理技术领域,具体而言,涉及一种视频图像处理方法、视频图像处理装置、计算机可读介质和电子设备。
背景技术
随着图像处理技术的发展,对视频图像中的各种对象进行检测、跟踪、识别已经广泛地应用到人机交互、智能监控、安全检查、数据娱乐、数码相机等各个领域。例如,可以采用人脸识别技术,对视频中识别出的人脸进行美颜处理。
以视频流中手势识别为例,目前,一些技术采用手势分割的技术实现手势识别,这种方法需要在每一帧进行手势分割,很难获取较好的实时性,并且效果较差;另一些技术采用肤色检测结合手势识别的技术来确定视频中的手势,在这种方案中,由于肤色模型容易受到光照的干扰,容易出现对手势的错误检测。
此外,目前用于视频图像处理中的模型较大,且计算速度慢。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种视频图像处理方法及装置、计算机可读介质和电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的视频图像处理速度慢且容易出错的问题。
根据本公开的一个方面,提供一种视频图像处理方法,包括:确定视频中当前帧图像中的目标对象位置区域;确定下一帧图像中与所述目标对象位置区域对应的目标对象跟踪图像;对目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域;其中,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数。
根据本公开的一个方面,提供一种视频图像处理装置,包括位置确定模块、跟踪图像获取模块和下一位置确定模块。
具体的,位置检测模块可以用于确定视频中当前帧图像中的目标对象位置区域;跟踪图像获取模块可以用于对目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域;下一位置确定模块可以用于对目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域;其中,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数。
可选地,视频图像处理装置还可以包括目标对象识别模块。
具体的,目标对象识别模块可以用于采用深度残差网络对下一帧图像的目标对象位置区域中的目标对象进行识别,以确定所述目标对象的类别。
可选地,视频图像处理装置还可以包括置信度确定模块、置信度比较模块和下一图像检测模块。
具体的,置信度确定模块可以用于确定下一帧图像中的目标对象位置区域包含目标对象的置信度;置信度比较模块可以用于将所述置信度与一预定阈值进行比较;下一图像检测模块可以用于如果所述置信度小于所述预定阈值,则在下一帧图像中检测目标对象。
可选地,跟踪图像获取模块可以包括区域放大单元和跟踪图像确定单元。
具体的,区域放大单元可以用于将所述当前帧图像的目标对象位置区域放大预定倍数得到目标对象跟踪区域;跟踪图像确定单元可以用于将下一帧图像中与所述目标对象跟踪区域对应的图像确定为目标对象跟踪图像。
可选地,下一位置确定模块还可以用于采用跟踪神经网络对目标对象跟踪图像依次进行多组卷积处理;其中,跟踪神经网络包括多个堆叠的卷积块,每个卷积块包括卷积层和最大池化层并且每个卷积块执行一组卷积处理。
可选地,多个堆叠的卷积块中第一个卷积块包括1个卷积层,除第一个卷积块外的其他卷积块均包括2个卷积层;其中,第一个卷积块中的卷积层包括8个大小为7×7且步长为4的卷积核;第二个卷积块中的卷积层包括16个大小为3×3且步长为1的卷积核以及24个3×3且步长为1的卷积核;第三个卷积块中的卷积层包括40个大小为3×3且步长为1的卷积核以及60个大小为3×3且步长为1的卷积核。
可选地,跟踪神经网络还包括在第三个卷积块与跟踪神经网络的输出之间依次配置的维度为96的内积层和维度为128的内积层。
可选地,针对跟踪神经网络确定目标对象跟踪图像中包含目标对象的置信度,视频图像处理装置还可以包括第一损失函数计算模块、第一网络参数确定模块和第一网络调整模块。
具体的,第一损失函数计算模块可以用于根据所述置信度计算第一损失函数;第一网络参数确定模块可以用于确定使第一损失函数最小化的跟踪神经网络参数;第一网络调整模块可以用于根据使第一损失函数最小化的跟踪神经网络参数对所述跟踪神经网络进行调整。
可选地,针对跟踪神经网络确定出下一帧图像的目标对象位置区域,视频图像处理装置还可以包括第二损失函数计算模块、第二网络参数确定模块和第二网络调整模块。
具体的,第二损失函数计算模块可以用于根据所述下一帧图像的目标对象位置区域计算第二损失函数;第二网络参数确定模块可以用于确定使第二损失函数最小化的跟踪神经网络参数;第二网络调整模块可以用于根据使第二损失函数最小化的跟踪神经网络参数对所述跟踪神经网络进行调整。
可选地,视频图像处理装置还可以包括分辨率调整模块。
具体的,分辨率调整模块可以用于在将目标对象跟踪图像输入跟踪神经网络之前,对目标对象跟踪图像的分辨率进行调整,以使目标对象跟踪图像与跟踪神经网络适配。
可选地,位置确定模块可以包括位置确定单元。
具体的,位置确定单元可以用于将当前帧图像的特征图输入基础神经网络进行处理以确定当前帧图像中的目标对象位置区域;其中,基础神经网络包括多个堆叠的卷积处理模块,每一卷积处理模块对输入的特征图进行处理包括:对输入的特征图进行1×1降维卷积处理以得到第一特征图;对第一特征图进行1×1扩展卷积处理以得到第二特征图;对第一特征图进行深度可分离卷积处理以得到第三特征图;将第二特征图与第三特征图拼接,以得到卷积处理模块输出的特征图。
可选地,对第一特征图进行深度可分离卷积处理以得到第三特征图包括:对第一特征图的各维度分别进行3×3卷积处理,以得到与第一特征图维度相同的中间特征图;对中间特征图进行1×1卷积处理,以得到第三特征图。
根据本公开的一个方面,提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述任意一项所述的视频图像处理方法。
根据本公开的一个方面,提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述任意一项所述的视频图像处理方法。
在本公开的一些实施例所提供的技术方案中,通过确定当前帧图像中的目标对象位置区域,确定下一帧图像中的目标对象跟踪图像,并对该目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域,其中,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数。一方面,对目标对象跟踪图像进行卷积处理,而非针对整个下一帧图像,大大降低了计算量,提高了目标对象跟踪的效率;另一方面,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数,这样的网络结构模型较小,处理速度得到了提高。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本发明实施例的图像处理方法或图像处理装置的示例性系统架构的示意图;
图2示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的视频图像处理方法的流程图;
图4示意性示出了根据本公开的示例性实施方式的基础神经网络的结构图;
图5示意性示出了根据本公开的示例性实施方式的卷积处理模块的结构图;
图6示意性示出了根据本公开的示例性实施方式的可分离卷积处理与普通卷积处理的对比图;
图7示意性示出了根据本公开的示例性实施方式的检测神经网络的模型示意图;
图8示意性示出了根据本公开的示例性实施方式的候选区域的示意图;
图9示意性示出了根据本公开的示例性实施方式的跟踪神经网络的结构图;
图10示意性示出了根据本公开的示例性实施方式的深度残差网络的结构图;
图11示出了根据本公开的以手势识别为例的手势类别的举例示意图;
图12示出了根据本公开的示例性实施方式的视频图像处理方法的整个流程的逻辑示意图;
图13示意性示出了根据本公开的第一示例性实施方式的视频图像处理装置的方框图;
图14示意性示出了根据本公开的第二示例性实施方式的视频图像处理装置的方框图;
图15示意性示出了根据本公开的第三示例性实施方式的视频图像处理装置的方框图;
图16示意性示出了根据本公开的示例性实施方式的跟踪图像获取模块的方框图;
图17示意性示出了根据本公开的第四示例性实施方式的视频图像处理装置的方框图;
图18示意性示出了根据本公开的第五示例性实施方式的视频图像处理装置的方框图;
图19示意性示出了根据本公开的第六示例性实施方式的视频图像处理装置的方框图;
图20示意性示出了根据本公开的示例性实施方式的位置确定模块的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1示出了可以应用本发明实施例的图像处理方法或图像处理装置的示例性系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器。例如,服务器105可以获取终端设备101、102、103上传的视频,确定视频中当前帧图像中的目标对象位置区域;确定下一帧图像中与所述目标对象位置区域对应的目标对象跟踪图像;对目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域;其中,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数。
其中,确定当前帧图像中的目标对象位置区域可以包括将当前帧图像的特征图(feature map)输入基础神经网络进行处理。具体的,基础神经网络可以包括多个堆叠的卷积处理模块,每一卷积处理模块对输入的特征图执行处理包括:对输入的特征图进行1×1降维卷积处理以得到第一特征图;对第一特征图进行1×1扩展卷积处理以得到第二特征图;对第一特征图进行深度可分离卷积处理以得到第三特征图;将第二特征图与第三特征图拼接,以得到该卷积处理模块输出的特征图。
对第一特征图进行深度可分离卷积处理以得到第三特征图可以包括:对第一特征图的各维度分别进行3×3卷积处理,以得到与第一特征图维度相同的中间特征图;对中间特征图进行1×1卷积处理以得到第三特征图。
此外,服务器105还可以对下一帧图像的目标对象位置区域中的目标对象进行识别,以确定目标对象的类别。
需要说明的是,上述的描述为服务器105具体执行本公开的视频图像处理方法的过程。在这种情况下,视频图像处理装置一般设置在服务器105中。
然而,应当理解的是,由于本公开所述视频图像处理方法具有采用模型小、处理速度快的特点,本公开另一些实施例所提供的视频图像处理方法还可以直接由终端设备101、102、103执行,而不会使终端设备消耗大量的系统资源。也就是说,终端设备101、102、103可以直接利用采用下面描述的方法对视频图像进行处理,以检测并跟踪视频中的目标对象,在这种情况下,本公开可以不依靠服务器。相应地,视频图像处理装置也可以设置在终端设备101、102、103中。
图2示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本发明的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
下面描述的视频图像处理方案可以适应移动互联网的产品需求。具体的,可以应用在相机的人脸识别、人像自拍中的人体检测、趣味短视频的身体特征(例如,手势)检测以及拍照识别车辆的车辆检测中。
图3示意性示出了本公开的示例性实施方式的视频图像处理方法的流程图。参考图3,所述视频图像处理方法可以包括以下步骤:
S32.确定视频中当前帧图像中的目标对象位置区域。
在本公开的示例性实施方式中,目标对象可以包括但不限于图像中的人脸、手势、汽车、树木等。应当理解的是,视频图像中的任何要素均可以作为本公开所述的目标对象。另外,目标对象位置区域可以由目标对象的宽W、高H以及图像中所处具体的位置(x,y)来确定表示。
在本公开的一些实施例中,当前帧图像可以指代视频图像的首帧图像,也就是说,步骤S32检测的是原始视频的第一帧图像中的目标对象位置区域。
在本公开的另一些实施例中,当前帧图像可以指代在视频图像处理过程中可能出现异常时,重新对目标对象进行检测的图像。这里所述的异常可以包括在图像中并未检测到目标对象,还可以包括在下述目标对象跟踪的方案中,未跟踪到目标对象。
应当理解的是,在整个视频图像处理过程正常的情况下,本公开仅存在一次检测目标对象位置位置区域的过程,随后是依赖于下述跟踪方案来确定图像中目标对象的位置。
具体的,可以采用一检测神经网络确定目标对象位置区域,该检测神经网络可以包括一基础神经网络和一输出神经网络。下面将对本公开的示例性实施方式的检测图像中目标对象位置区域的过程进行说明,另外,以服务器执行检测过程为例进行说明,然而,应当理解的是,以例如手机的终端设备为例执行检测过程也属于本发明的构思。
服务器可以将图像的特征图输入基础神经网络进行处理。其中,基础神经网络可以包括多个堆叠的卷积处理模块。每个卷积处理模块的处理过程可以包括:首先,可以对输入图像的特征图进行1×1降维卷积处理以得到第一特征图;随后,可以对第一特征图进行1×1扩展卷积处理以得到第二特征图;另外,可以对第一特征进行深度可分离卷积处理以得到第三特征图;接下来,可以将第二特征图与第三特征图拼接,以得到该卷积处理模块输出的特征图。
其中,深度可分离卷积的具体处理过程可以包括:对第一特征图的各维度分别进行3×3卷积处理,以得到与第一特征图维度相同的中间特征图,随后,可以对中间特征图进行1×1卷积处理,以得到第三特征图。
另外,在对中间特征图进行1×1卷积处理之前,可以对中间特征图依次进行批量归一化处理和线性整流处理。在对中间特征图进行1×1卷积处理之后,还可以对1×1卷积处理后的中间特征图进行批量归一化处理以及线性整流处理,以得到第三特征图。
此外,在将特征图输入多个堆叠的卷积处理模块中预定卷积处理模块之前,可以对特征图进行最大池化处理。其中,预定卷积处理模块与实际检测场景相关,也就是说,检测场景不同,多个堆叠的卷积处理模块中的预定卷积处理模块的位置和数量可能不同,并且预定卷积处理模块可以由开发人员自行配置,本示例性实施方式中对此不做特殊限定。
最大池化处理的作用在于:一方面,可以实现降维的效果,便于后续卷积过程的处理;另一方面,可以确保特征不变性,使得检测过程更加鲁棒。本公开对最大池化处理的过程不做特殊限制,另外,例如可以将最大池化处理的步长设置为2。
应当理解的是,上述术语“第一”、“第二”、“第三”、“中间”仅是为了区分的目的,不应将其理解为是本公开内容的限制。
图4示例性示出了本公开所述的基础神经网络的网络结构的示意图。具体的,该示例性网络结构可以包括卷积层401,最大池化层403和409,卷积处理模块405、407、411、413和415,均值池化层417和softmax层419。应当理解的是,图4所示结构仅是一示例性描述,网络中还可以包括其他卷积层。另外,卷积处理模块、最大池化层的位置和数量也根据实际应用场景的不同会发生变化。
下面将参考图5对卷积处理模块的结构进行示例性说明。
输入的特征图的维度可以为128,也就是说,输入该卷积处理模块的特征图有128个。首先,输入的特征图可以经过第一卷积单元501的处理,生成维度为16的特征图,即,第一特征图。具体的,第一卷积单元501可以执行1×1且维度为16的降维卷积处理,其中,该1×1卷积核对应的值根据实际检测需要可能不同;接下来,一方面,第一特征图可以经过第二卷积单元502的处理,生成维度为64的特征图,即,第二特征图。具体的,第二卷积单元502可以执行1×1且维度为64的扩展卷积处理;另一方面,第一特征图可以经过第三卷积单元503的处理,生成维度为64的特征图,即,第三特征图;随后,可以将第二卷积单元502卷积后生成的第二特征图和第三卷积单元503卷积后生成的第三特征图输入特征图拼接单元504,特征图拼接单元504可以按维度对第二特征图和第三特征图进行拼接,以得到维度为128的特征图,即,该卷积处理模块输出的特征图。
第三卷积单元503还可以包括第一卷积子单元5031和第二卷积子单元5032。具体的,第一卷积子单元5031可以对第一特征图的各维度分别进行3×3卷积处理,以得到与第一特征图维度相同的中间特征图;第二卷积子单元5032可以对中间特征图进行1×1卷积处理,以得到第三特征图。
另外,在第一卷积子单元5031与第二卷积子单元5032之间,第三卷积单元503还可以包括批量归一化单元和线性整流单元。具体的,批量归一化单元可以为BN层(BatchNormalization layer,批量归一化层),用于加快网络学习的速度;线性整流单元可以为ReLU(Rectified Linear Unit,线性整流单元),用于增加网络的稀疏性并提高训练速度。
此外,在第二卷积子单元5032之后,第三卷积单元503还可以包括批量归一化单元和线性整流单元。
第一卷积子单元5031执行的是按深度逐层卷积(depthwise卷积)的过程。图6示意性示出了3×3的普通卷积与3×3的depthwise卷积的卷积效果对比图。
对于普通卷积,如果卷积核的大小为DK·DK,输入的特征图的数量为M,输出的特征图的数量为N,输出的特征图的大小为DF·DF,则运算复杂度可以表示为:DK·DK·M·N·DF·DF。
对于depthwise卷积,运算复杂度可以仅为:DK·DK·M·DF·DF。再加上N个1×1的卷积,则深度可分离卷积(即,第一卷积子单元5031执行的过程)的总运算复杂度可以表示为:
DK·DK·M·DF·DF+M·N·DF·DF
由此可见,深度可分离卷积相对于普通卷积的运算复杂度所占比例为:
对于3×3的卷积核,深度可分离卷积的运算复杂度仅为普通卷积的1/9至1/8,因此,深度可分离卷积可以有效提高检测速度。
参考图7,本公开的图像处理方法涉及的卷积神经网络除包括基础神经网络外,还可以包括输出神经网络。具体的,图像处理方法还可以包括:将基础神经网络输出的特征图发送至一输出神经网络。其中,输出神经网络用于采用预设候选区域预测的方式根据基础神经网络输出的特征图确定目标对象的位置。
具体的,可以采用候选区域(anchor)预测目标对象的坐标位置,此处,可以将候选区域理解为在特征图上预先定义的位置坐标(reference box),参考图8中虚线部分,这些预先设定的位置坐标可以作为目标对象的初始位置坐标,接下来,可以通过网络学习的方式准确地确定出目标对象的位置。另外,特征图上每个像素对应的候选区域的数量可以由开发人员自行设定,例如,每个像素对应的候选区域的数量为9个。
根据本公开的一些实施例,本公开的图像处理方法还可以包括调整网络参数的过程。具体如下:
首先,可以计算由基础神经网络和输出神经网络构成的卷积神经网络的损失函数;随后,可以确定使损失函数最小化的卷积神经网络参数;接下来,可以将使损失函数最小化的卷积神经网络参数应用于卷积神经网络,以实现网络权重调整的过程。
在本公开的示例性描述中,计算损失函数的过程可以包括:首先,可以分别计算出分类损失函数Lconf和位置损失函数Lloc。在一实例中,可以通过公式1来计算位置损失函数Lloc:
其中,H和W分别为特征图的高度和宽度;K为所述候选区域的总数量;Iijk为检测评价参数,当在位置(i,j)的第k个候选区域与真实区域的IOU(Intersection Over Union,检测评价函数)大于一预定阈值(例如,0.7)时,Iijk为1,否则为0;δxijk、δyijk、δwijk、δhijk分别为所述卷积神经网络输出的相对于所述候选区域的坐标偏移量; 分别为目标对象真实区域相对于所述候选区域的偏移量。
另外,可以通过公式2来计算分类损失函数Lconf:
另外,可以确定与候选区域匹配的目标对象所在区域的数量N。
接下来,可以将分类损失函数Lconf与位置损失函数Lloc的和除以数量N的结果作为卷积神经网络的损失函数L。具体参见公式3:
根据另外一些实施例,可以在确定出目标对象的位置后,将置信度高于一预定置信度的检测结果确定为目标对象的坐标。本示例性实施方式中对此不做特殊限定。
经过测试,采用上述实现图像处理方法的卷积神经网络,一方面,可以达到较好的目标对象的检测效果;另一方面,该卷积神经网络模型较小(约1.8MB),且检测速度块(在PC上的速度可达到60ms/帧)。由此,可以满足例如人脸、手势、行人、车辆等目标对象检测的需要。
S34.确定下一帧图像中与所述目标对象位置区域对应的目标对象跟踪图像。
在步骤S32中确定出当前帧图像中的目标对象位置区域后,可以利用该区域来从下一帧图像中获取目标对象跟踪图像。具体的,如果以矩形框的形式表示位置区域,则可以将当前帧图像中的目标对象位置区域记为(x,y,w,h),其中,x和y分别表示位置区域的中心点(或任一规定的一点)在当前帧图像中的坐标,w和h分别表示位置区域对应的宽度和高度。然而,容易理解的是,还可以采用除矩形框之外的位置表示方式来表征位置区域,例如,椭圆形位置框、圆形位置框等。
首先,由于在一帧的时间内,目标对象的位移通常较小,因此,可以将当前帧图像的目标对象位置区域放大预定倍数得到目标跟踪区域。具体的,预定倍数可以为1.5倍至2倍,并且可以基于矩形框中心点放大预定倍数,此时,可以将目标跟踪区域记为(x’,y’,w’,h’)。
接下来,可以将下一帧图像中与目标跟踪区域对应的图像确定为目标对象跟踪图像。
S36.对目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域;其中,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数。
根据本公开的一些实施例,可以采用跟踪神经网络对目标对象跟踪图像依次进行多组卷积过程。其中,跟踪神经网络可以包括多个堆叠的卷积块,每个卷积块可以包括卷积层和最大池化层,并且每个卷积块对应执行一组卷积处理。在这种情况下,多个堆叠的卷积块中第一个卷积块的卷积层数量小于其他卷积块的卷积层数量。
在将步骤S34中确定出的目标对象跟踪图像输入跟踪神经网络之前,可以根据网络训练时结构的要求,确定出适于网络输入的图像分辨率(例如,72×72,100×100)。服务器可以判断目标对象跟踪图像的分辨率是否与网络输入要求的分辨率匹配,如果不匹配,则可以对目标对象跟踪图像的分辨率进行调整,以使目标对象跟踪图像与跟踪神经网络适配。
下面将参考图9对本公开的跟踪神经网络进行示例性描述。
在图9所示实例中,跟踪神经网络可以包括第一个卷积块、第二个卷积块、第三个卷积块。应当立即的是,根据实际视频图像跟踪场景的不同,跟踪神经网络还可以包括其他卷积块。第一个卷积块可以包括1个卷积层,第二个卷积块和第三个卷积块均可以包括2个卷积层。
第一个卷积块可以包括卷积层901和最大池化层903。其中卷积层包括8(图中c)个大小为7×7(图中k)且步长为4(图中s)的卷积核,最大卷积层903的大小为2×2且步长为4。
第二个卷积块中的卷积层包括由16个大小为3×3且步长为1的卷积核构成的卷积层905以及由24个3×3且步长为1的卷积核构成的卷积层907;第三个卷积块中的卷积层包括由40个大小为3×3且步长为1的卷积核构成的卷积层911以及由60个大小为3×3且步长为1的卷积核构成的卷积层913。此外,最大池化层909和最大池化层915与最大卷积层903相同。
基于图9所示卷积的配置,一方面,在起始的第一个卷积块中,将卷积层901的维度设定为8,数值相对较小,有助于整体网络计算速度的提升。另外,通过将卷积层901的卷积核配置成大小为7×7且步长为4,可以在网络初始时提取更多的特征,而不会消耗大量的计算资源;另一方面,通过如上结构和参数设置第二个卷积块和第三个卷积块,在满足跟踪目标对象的同时,模型较小且计算速度快。
此外,应当理解的是,一方面,对于跟踪一些复杂的目标对象,也就是说,目标对象对应的特征较多,可以在跟踪神经网络中配置第四个卷积块、第五个卷积块等,应当理解的是,新配置的卷积块的结构应当与第二和第三卷积块的结构类似。另一方面,对于跟踪一些简单的目标对象,也就是说,目标对象对应的特征较少,可以适当减小图9所示的卷积神经网络中各卷积层的维度和大小,而结构应与图9所示结构适应。这些均应属于本发明的构思。
除各卷积块之外,仍参考图9,本公开所述的跟踪神经网络还可以包括在第三个卷积块与跟踪神经网络的输出之间依次配置的维度为96的内积层917和维度为128的内积层919。其中,本领域技术人员容易理解的是,此处的内积层具有全连接功能,并且这种两次全连接的配置有助于整体网络计算速度的提升。
本公开的跟踪神经网络具有两个输出分支,即图9中的内积层921和内积层923。
针对由C=2表示的输出分支,其结果是判断目标对象跟踪图像中包含目标对象的置信度。该置信度的范围为[0,1]。本公开可以将输出的置信度与一预定阈值(例如,0.9)进行比较,如果小于该预定阈值,则可以确定该目标跟踪图像中不存在目标对象,此时,可以在整个下一帧图像中检测目标对象。具体的检测过程在步骤S32中已经详细描述,在此不再赘述。
跟踪神经网络输出置信度的意义在于:可以避免错误跟踪,从而及时调整到正确的目标位置。
针对由C=4表示的输出分支,其结果是目标对象在下一帧图像中的位置区域,可以将其表征为(x1,y1,w1,h1)。
另外,本公开还提供了对C=2输出分支进行损失计算以优化跟踪神经网络的方案。首先,可以根据置信度计算第一损失函数,具体的,可以根据公式4计算第一损失函数Lconf’:
其中,针对I{yG=j}函数,yG=j为真时值为1,否则为0;yG表示类别标定的真实数据,K为输出的C=2输出分支的神经元数量。另外,Sj表示将第j个神经元执行归一化处理,利用公式5可得出:
其中,aj表示内积向量中第j个的值。
接下来,可以确定使第一损失函数最小化的跟踪神经网络参数;随后,可以根据使第一损失函数最小化的跟踪神经网络参数对跟踪神经网络进行调整。
此外,本公开还提供了对C=4输出分支进行损失计算以优化跟踪神经网络的方案。首先,可以根据下一帧图像的目标对象位置区域计算第二损失函数,具体的,可以利用公式6来计算第二损失函数Lreg:
接下来,可以确定使第二损失函数最小化的跟踪神经网络参数;随后,可以根据使第二损失函数最小化的跟踪神经网络参数对跟踪神经网络进行调整。
应当注意的是,综合第一损失函数和第二损失函数对跟踪神经网络参数进行调整的方案也应当属于本发明的构思。
经测试,上述跟踪神经网络的模型大小小于1MB,使得这种模型可以应用于手机端,并具有较好的实时跟踪性能。
在确定出下一帧图像中的目标对象位置区域之后,本公开的示例性实施方式还可以包括:采用深度残差网络对下一帧图像的目标对象位置区域中的目标对象进行识别,以确定目标对象的类别。
具体的,深度残差网络的基本结构如图10所示,本公开所采用的深度残差网络的基本结构与现有的残差网络的基本结构类似,在此不做特殊说明。不同的是,本公开采用的是18层深度残差网络,相比于现有技术中一般采用10个卷积核的方案,本公开采用3个卷积核,由此,在略牺牲识别精确度的同时,大大提高了识别速度并减小了模型的大小。然而,经测试,这种略牺牲识别精确度的结果并不会对识别出目标对象的类别造成任何影响,而整个网络的性能大大得到了提升。
以手势识别为例,参考图11,采用上述识别方法,可以实现图11中手势1101至手势1111的精确识别。然而,不限于此,手势还可以包含其他类别。
下面将参考图12,对本公开的视频图像处理方法的整个过程进行说明。
在步骤S120中,可以对视频图像中的目标对象进行检测,以确定目标对象位置区域,具体检测过程详见步骤S32;在步骤S122中,可以判断是否检测到目标对象,如果检测到,进行步骤S124,如果未检测到,则返回步骤S120,以对视频图像的下一帧进行检测;在步骤S124中,可以对目标对象进行实时跟踪,具体的可以采用上述步骤S36中的跟踪神经网络实现实时跟踪;在步骤S126中,可以判断是否跟踪到目标对象,如果跟踪到则可以进行步骤S128的目标对象识别过程;如果未跟踪到,则返回步骤S120,以对当前进行跟踪的整体图像进行目标对象的检测。另外,视频中还可以预先标有目标对象的位置信息,在这种情况下,可以直接对目标对象进行实时跟踪。
在图12所描述的实施例中,当跟踪到目标对象时,执行识别的处理过程。然而,考虑到负载以及手机端发热的问题,虽然每一帧均实现目标对象的跟踪,然而,可以每隔预定帧执行识别的过程,例如,每5帧执行识别的过程。
综上所述,一方面,本公开的视频图像处理方法所涉及的模型小,处理速度快,可以直接应用于例如手机的终端设备上;另一方面,本公开的视频图像处理方法可以应用于人机交互、智能监控、安全检查、数据娱乐、数码相机等各个领域,以较好地性能实现例如手势识别、人脸识别、车辆检测等应用目的。例如,在直播、视频聊天等场景下,可以在对视频中手势进行跟踪并识别后,在手上添加虚拟手链或色彩效果。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种视频图像处理装置。
图13示意性示出了本公开的示例性实施方式的视频图像处理装置的方框图。参考图13,根据本公开的示例性实施方式的视频图像处理装置13可以包括位置确定模块131、跟踪图像获取模块133和下一位置确定模块135。
具体的,位置确定模块131可以用于确定视频中当前帧图像中的目标对象位置区域;跟踪图像获取模块133可以用于对目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域;下一位置确定模块135可以用于对目标对象跟踪图像依次进行多组卷积处理以确定下一帧图像中的目标对象位置区域;其中,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数。
在本公开的视频图像处理装置中,一方面,对目标对象跟踪图像进行卷积处理,而非针对整个下一帧图像,大大降低了计算量,提高了目标对象跟踪的效率;另一方面,多组卷积处理中的第一组卷积处理的卷积次数小于其他组卷积处理的卷积次数,这样的网络结构模型较小,处理速度得到了提高。
根据本公开的示例性实施例,参考图14,视频图像处理装置14相比于视频图像处理装置13,除包括位置确定模块131、跟踪图像获取模块133和下一位置确定模块135外,还可以包括目标对象识别模块141。
具体的,目标对象识别模块141可以用于采用深度残差网络对下一帧图像的目标对象位置区域中的目标对象进行识别,以确定所述目标对象的类别。
根据本公开的示例性实施例,参考图15,视频图像处理装置15相比于视频图像处理装置13,除包括位置确定模块131、跟踪图像获取模块133和下一位置确定模块135外,还可以包括置信度确定模块151、置信度比较模块153和下一图像检测模块155。
具体的,置信度确定模块151可以用于确定下一帧图像中的目标对象位置区域包含目标对象的置信度;置信度比较模块153可以用于将所述置信度与一预定阈值进行比较;下一图像检测模块155可以用于如果所述置信度小于所述预定阈值,则在所述下一帧图像中检测目标对象。
根据本公开的示例性实施例,参考图16,跟踪图像获取模块133可以包括区域放大单元1601和跟踪图像确定单元1603。
具体的,区域放大单元1601可以用于将所述当前帧图像的目标对象位置区域放大预定倍数得到目标对象跟踪区域;跟踪图像确定单元1603可以用于将所述下一帧图像中与所述目标对象跟踪区域对应的图像确定为目标对象跟踪图像。
根据本公开的示例性实施例,下一位置确定模块135还可以用于采用跟踪神经网络对目标对象跟踪图像依次进行多组卷积处理;其中,跟踪神经网络包括多个堆叠的卷积块,每个卷积块包括卷积层和最大池化层并且每个卷积块执行一组卷积处理。
根据本公开的示例性实施例,多个堆叠的卷积块中第一个卷积块包括1个卷积层,除第一个卷积块外的其他卷积块均包括2个卷积层;其中,第一个卷积块中的卷积层包括8个大小为7×7且步长为4的卷积核;第二个卷积块中的卷积层包括16个大小为3×3且步长为1的卷积核以及24个3×3且步长为1的卷积核;第三个卷积块中的卷积层包括40个大小为3×3且步长为1的卷积核以及60个大小为3×3且步长为1的卷积核。
根据本公开的示例性实施例,跟踪神经网络还包括在第三个卷积块与跟踪神经网络的输出之间依次配置的维度为96的内积层和维度为128的内积层。
根据本公开的示例性实施例,针对跟踪神经网络确定目标对象跟踪图像中包含目标对象的置信度,参考图17,视频图像处理装置17相比于视频图像处理装置15,除包括位置确定模块131、跟踪图像获取模块133、下一位置确定模块135、置信度确定模块151、置信度比较模块153和下一图像检测模块155外,还可以包括第一损失函数计算模块171、第一网络参数确定模块173和第一网络调整模块175。
具体的,第一损失函数计算模块171可以用于根据所述置信度计算第一损失函数;第一网络参数确定模块173可以用于确定使第一损失函数最小化的跟踪神经网络参数;第一网络调整模块175可以用于根据使第一损失函数最小化的跟踪神经网络参数对所述跟踪神经网络进行调整。
根据本公开的示例性实施例,针对跟踪神经网络确定出下一帧图像的目标对象位置区域,参考图18,视频图像处理装置18相比于视频图像处理装置13,除包括位置确定模块131、跟踪图像获取模块133和下一位置确定模块135外,还可以包括第二损失函数计算模块181、第二网络参数确定模块183和第二网络调整模块185。
第二损失函数计算模块181可以用于根据所述下一帧图像的目标对象位置区域计算第二损失函数;第二网络参数确定模块183可以用于确定使第二损失函数最小化的跟踪神经网络参数;第二网络调整模块185可以用于根据使第二损失函数最小化的跟踪神经网络参数对所述跟踪神经网络进行调整。
应当理解的是,第二损失函数计算模块181、第二网络参数确定模块183和第二网络调整模块185还可以包含于视频图像处理装置17中,以结合二者的损失函数计算结果综合确定调整的网络参数。
根据本公开的示例性实施例,参考图19,视频图像处理装置19相比于视频图像处理装置13,除包括位置确定模块131、跟踪图像获取模块133和下一位置确定模块135外,还可以包括分辨率调整模块191。
具体的,分辨率调整模块191可以用于在将目标对象跟踪图像输入跟踪神经网络之前,对目标对象跟踪图像的分辨率进行调整,以使目标对象跟踪图像与跟踪神经网络适配。
根据本公开的示例性实施例,参考图20,位置确定模块131可以包括位置确定单元2001。
具体的,位置确定单元2001可以用于将当前帧图像的特征图输入基础神经网络进行处理以确定当前帧图像中的目标对象位置区域;其中,基础神经网络包括多个堆叠的卷积处理模块,每一卷积处理模块对输入的特征图进行处理包括:对输入的特征图进行1×1降维卷积处理以得到第一特征图;对第一特征图进行1×1扩展卷积处理以得到第二特征图;对第一特征图进行深度可分离卷积处理以得到第三特征图;将第二特征图与第三特征图拼接,以得到卷积处理模块输出的特征图。
根据本公开的示例性实施例,对第一特征图进行深度可分离卷积处理以得到第三特征图包括:对第一特征图的各维度分别进行3×3卷积处理,以得到与第一特征图维度相同的中间特征图;对中间特征图进行1×1卷积处理,以得到第三特征图。
由于本发明实施方式的程序运行性能分析装置的各个功能模块与上述方法发明实施方式中相同,因此在此不再赘述。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (12)
1.一种视频图像处理方法,其特征在于,包括:
将视频中当前帧图像的特征图输入基础神经网络进行处理以确定视频中当前帧图像中的目标对象位置区域,其中,所述基础神经网络包括多个堆叠的卷积处理模块;
确定下一帧图像中与所述目标对象位置区域对应的目标对象跟踪图像;
对所述目标对象跟踪图像的分辨率进行调整,以使所述目标对象跟踪图像与跟踪神经网络输入要求的分辨率适配;
采用跟踪神经网络对所述目标对象跟踪图像依次进行多组卷积处理以确定所述下一帧图像中的目标对象位置区域;其中,所述跟踪神经网络包括多个堆叠的卷积块,每个卷积块执行一组卷积处理,所述多个堆叠的卷积块中第一个卷积块包括1个卷积层,除所述第一个卷积块外的其他卷积块均包括2个卷积层,所述第一个卷积块中的卷积层包括8个大小为7×7且步长为4的卷积核,第二个卷积块中的卷积层包括16个大小为3×3且步长为1的卷积核以及24个3×3且步长为1的卷积核,第三个卷积块中的卷积层包括40个大小为3×3且步长为1的卷积核以及60个大小为3×3且步长为1的卷积核;
如果所述下一帧图像与最近识别一帧图像间隔预定数目帧且跟踪到目标对象,则采用深度残差网络对所述下一帧图像的目标对象位置区域中的目标对象进行识别,以确定所述目标对象的类别,其中,所述深度残差网络采用3个卷积核;
如果未跟踪到目标对象,则将所述下一帧图像作为当前帧图像,并重新执行将所述当前帧图像的特征图输入基础神经网络进行处理以确定所述当前帧图像中的目标对象位置区域的步骤及之后的步骤。
2.根据权利要求1所述的视频图像处理方法,其特征在于,所述视频图像处理方法还包括:
确定所述下一帧图像中的目标对象位置区域包含目标对象的置信度;
将所述置信度与一预定阈值进行比较;
如果所述置信度小于所述预定阈值,则在所述下一帧图像中识别目标对象。
3.根据权利要求1所述的视频图像处理方法,其特征在于,确定下一帧图像中与所述目标对象位置区域对应的目标对象跟踪图像包括:
将所述当前帧图像的目标对象位置区域放大预定倍数得到目标对象跟踪区域;
将下一帧图像中与所述目标对象跟踪区域对应的图像确定为目标对象跟踪图像。
4.根据权利要求2所述的视频图像处理方法,其特征在于,每个卷积块包括卷积层和最大池化层。
5.根据权利要求4所述的视频图像处理方法,其特征在于,所述跟踪神经网络还包括在第三个卷积块与所述跟踪神经网络的输出之间依次配置的维度为96的内积层和维度为128的内积层。
6.根据权利要求4所述的视频图像处理方法,其特征在于,针对所述确定所述目标对象跟踪图像中包含目标对象的置信度,所述视频图像处理方法还包括:
根据所述置信度计算第一损失函数;
确定使第一损失函数最小化的跟踪神经网络参数;
根据使第一损失函数最小化的跟踪神经网络参数对所述跟踪神经网络进行调整。
7.根据权利要求4或6所述的视频图像处理方法,其特征在于,针对所述跟踪神经网络确定出下一帧图像的目标对象位置区域,所述视频图像处理方法还包括:
根据所述下一帧图像的目标对象位置区域计算第二损失函数;
确定使第二损失函数最小化的跟踪神经网络参数;
根据使第二损失函数最小化的跟踪神经网络参数对所述跟踪神经网络进行调整。
8.根据权利要求1所述的视频图像处理方法,其特征在于,每一所述卷积处理模块对输入的特征图进行处理包括:
对输入的特征图进行1×1降维卷积处理以得到第一特征图;
对所述第一特征图进行1×1扩展卷积处理以得到第二特征图;
对所述第一特征图进行深度可分离卷积处理以得到第三特征图;
将所述第二特征图与所述第三特征图拼接,以得到所述卷积处理模块输出的特征图。
9.根据权利要求8所述的视频图像处理方法,其特征在于,对所述第一特征图进行深度可分离卷积处理以得到第三特征图包括:
对所述第一特征图的各维度分别进行3×3卷积处理,以得到与所述第一特征图维度相同的中间特征图;
对所述中间特征图进行1×1卷积处理,以得到第三特征图。
10.一种视频图像处理装置,其特征在于,包括:
位置确定模块,用于将视频中当前帧图像的特征图输入基础神经网络进行处理以确定视频中当前帧图像中的目标对象位置区域,其中,所述基础神经网络包括多个堆叠的卷积处理模块;
跟踪图像确定模块,用于确定下一帧图像中与所述目标对象位置区域对应的目标对象跟踪图像;
分辨率调整模块,用于对所述目标对象跟踪图像的分辨率进行调整,以使所述目标对象跟踪图像与跟踪神经网络输入要求的分辨率适配;
下一位置确定模块,用于采用跟踪神经网络对所述目标对象跟踪图像依次进行多组卷积处理以确定所述下一帧图像中的目标对象位置区域;其中,所述跟踪神经网络包括多个堆叠的卷积块,每个卷积块执行一组卷积处理,所述多个堆叠的卷积块中第一个卷积块包括1个卷积层,除所述第一个卷积块外的其他卷积块均包括2个卷积层,所述第一个卷积块中的卷积层包括8个大小为7×7且步长为4的卷积核,第二个卷积块中的卷积层包括16个大小为3×3且步长为1的卷积核以及24个3×3且步长为1的卷积核,第三个卷积块中的卷积层包括40个大小为3×3且步长为1的卷积核以及60个大小为3×3且步长为1的卷积核;以及
如果所述下一帧图像与最近识别一帧图像间隔预定数目帧且跟踪到目标对象,则采用深度残差网络对所述下一帧图像的目标对象位置区域中的目标对象进行识别,以确定所述目标对象的类别,其中,所述深度残差网络采用3个卷积核;
如果未跟踪到目标对象,则将所述下一帧图像作为当前帧图像,并重新执行将所述当前帧图像的特征图输入基础神经网络进行处理以确定所述当前帧图像中的目标对象位置区域的步骤及之后的步骤。
11.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至9中任一项所述的视频图像处理方法。
12.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至9中任一项所述的视频图像处理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810639495.0A CN108898086B (zh) | 2018-06-20 | 2018-06-20 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
PCT/CN2019/085604 WO2019242416A1 (zh) | 2018-06-20 | 2019-05-06 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
US16/922,196 US11436739B2 (en) | 2018-06-20 | 2020-07-07 | Method, apparatus, and storage medium for processing video image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810639495.0A CN108898086B (zh) | 2018-06-20 | 2018-06-20 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108898086A CN108898086A (zh) | 2018-11-27 |
CN108898086B true CN108898086B (zh) | 2023-05-26 |
Family
ID=64345258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810639495.0A Active CN108898086B (zh) | 2018-06-20 | 2018-06-20 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11436739B2 (zh) |
CN (1) | CN108898086B (zh) |
WO (1) | WO2019242416A1 (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898086B (zh) * | 2018-06-20 | 2023-05-26 | 腾讯科技(深圳)有限公司 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
CN111488776B (zh) * | 2019-01-25 | 2023-08-08 | 北京地平线机器人技术研发有限公司 | 对象检测方法、对象检测装置和电子设备 |
CN111783497B (zh) * | 2019-04-03 | 2024-08-20 | 北京京东尚科信息技术有限公司 | 视频中目标的特征确定方法、装置和计算机可读存储介质 |
CN110473137B (zh) * | 2019-04-24 | 2021-09-14 | 华为技术有限公司 | 图像处理方法和装置 |
CN110176024B (zh) * | 2019-05-21 | 2023-06-02 | 腾讯科技(深圳)有限公司 | 在视频中对目标进行检测的方法、装置、设备和存储介质 |
CN112417932B (zh) * | 2019-08-23 | 2023-04-07 | 中移雄安信息通信科技有限公司 | 视频中的目标对象的识别方法、装置及设备 |
CN110598649A (zh) * | 2019-09-17 | 2019-12-20 | 中控智慧科技股份有限公司 | 车辆识别方法、装置及电子设备和存储介质 |
CN110648327B (zh) * | 2019-09-29 | 2022-06-28 | 无锡祥生医疗科技股份有限公司 | 基于人工智能的超声影像视频自动追踪方法和设备 |
CN111027376A (zh) * | 2019-10-28 | 2020-04-17 | 中国科学院上海微系统与信息技术研究所 | 一种确定事件图谱的方法、装置、电子设备及存储介质 |
CN111104920B (zh) * | 2019-12-27 | 2023-12-01 | 深圳市商汤科技有限公司 | 视频处理方法及装置、电子设备和存储介质 |
CN111598902B (zh) * | 2020-05-20 | 2023-05-30 | 抖音视界有限公司 | 图像分割方法、装置、电子设备及计算机可读介质 |
CN111797728B (zh) * | 2020-06-19 | 2024-06-14 | 浙江大华技术股份有限公司 | 一种运动物体的检测方法、装置、计算设备及存储介质 |
CN113919405B (zh) * | 2020-07-07 | 2024-01-19 | 华为技术有限公司 | 数据处理方法、装置与相关设备 |
CN112529934B (zh) * | 2020-12-02 | 2023-12-19 | 北京航空航天大学杭州创新研究院 | 多目标追踪方法、装置、电子设备和存储介质 |
CN112802338B (zh) * | 2020-12-31 | 2022-07-12 | 山东奥邦交通设施工程有限公司 | 一种基于深度学习的高速公路实时预警方法及系统 |
CN112863100B (zh) * | 2020-12-31 | 2022-09-06 | 山东奥邦交通设施工程有限公司 | 一种智能施工安全监测系统及方法 |
CN112712124B (zh) * | 2020-12-31 | 2021-12-10 | 山东奥邦交通设施工程有限公司 | 一种基于深度学习的多模块协同物体识别系统及方法 |
CN112861780B (zh) * | 2021-03-05 | 2024-08-06 | 上海有个机器人有限公司 | 一种行人重识别方法、装置、介质和移动机器人 |
CN113160244B (zh) * | 2021-03-24 | 2024-03-15 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN112861830B (zh) * | 2021-04-13 | 2023-08-25 | 北京百度网讯科技有限公司 | 特征提取方法、装置、设备、存储介质以及程序产品 |
CN113158867B (zh) * | 2021-04-15 | 2024-11-19 | 微马科技有限公司 | 人脸特征的确定方法、装置和计算机可读存储介质 |
CN113129338B (zh) * | 2021-04-21 | 2024-01-26 | 平安国际智慧城市科技股份有限公司 | 基于多目标跟踪算法的图像处理方法、装置、设备及介质 |
CN113392743B (zh) * | 2021-06-04 | 2023-04-07 | 北京格灵深瞳信息技术股份有限公司 | 异常动作检测方法、装置、电子设备和计算机存储介质 |
CN113706614B (zh) * | 2021-08-27 | 2024-06-21 | 重庆赛迪奇智人工智能科技有限公司 | 一种小目标检测方法、装置、存储介质和电子设备 |
CN114581796B (zh) * | 2022-01-19 | 2024-04-02 | 上海土蜂科技有限公司 | 目标物跟踪系统、方法及其计算机装置 |
CN114548374A (zh) * | 2022-02-17 | 2022-05-27 | 上海阵量智能科技有限公司 | 数据处理方法、装置、芯片、电子设备及存储介质 |
CN114581820B (zh) * | 2022-02-23 | 2025-01-24 | 青岛海信网络科技股份有限公司 | 检测电警设备的识别效率的方法及电子设备 |
CN114708446B (zh) * | 2022-03-14 | 2024-10-18 | 中国科学技术大学 | 目标检测方法、装置、设备及存储介质 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8335390B2 (en) * | 2010-03-22 | 2012-12-18 | Sony Corporation | Blur function modeling for depth of field rendering |
JP6102680B2 (ja) * | 2013-10-29 | 2017-03-29 | ソニー株式会社 | 符号化装置、復号装置、符号化データ、符号化方法、復号方法およびプログラム |
JP6655878B2 (ja) * | 2015-03-02 | 2020-03-04 | キヤノン株式会社 | 画像認識方法及び装置、プログラム |
US20160259980A1 (en) * | 2015-03-03 | 2016-09-08 | Umm Al-Qura University | Systems and methodologies for performing intelligent perception based real-time counting |
CN108701210B (zh) * | 2016-02-02 | 2021-08-17 | 北京市商汤科技开发有限公司 | 用于cnn网络适配和对象在线追踪的方法和系统 |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
CN106296728B (zh) * | 2016-07-27 | 2019-05-14 | 昆明理工大学 | 一种基于全卷积网络的非限制场景中运动目标快速分割方法 |
CN107871105B (zh) * | 2016-09-26 | 2021-10-19 | 北京眼神科技有限公司 | 一种人脸认证方法和装置 |
US20180129934A1 (en) * | 2016-11-07 | 2018-05-10 | Qualcomm Incorporated | Enhanced siamese trackers |
CN106875415B (zh) * | 2016-12-29 | 2020-06-02 | 北京理工雷科电子信息技术有限公司 | 一种动态背景中弱小动目标的连续稳定跟踪方法 |
US10997421B2 (en) * | 2017-03-30 | 2021-05-04 | Hrl Laboratories, Llc | Neuromorphic system for real-time visual activity recognition |
US20180307912A1 (en) * | 2017-04-20 | 2018-10-25 | David Lee Selinger | United states utility patent application system and method for monitoring virtual perimeter breaches |
CN107492115B (zh) * | 2017-08-30 | 2021-01-01 | 北京小米移动软件有限公司 | 目标对象的检测方法及装置 |
TWI651662B (zh) * | 2017-11-23 | 2019-02-21 | 財團法人資訊工業策進會 | 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體 |
CN110096933B (zh) * | 2018-01-30 | 2023-07-18 | 华为技术有限公司 | 目标检测的方法、装置及系统 |
US11205274B2 (en) * | 2018-04-03 | 2021-12-21 | Altumview Systems Inc. | High-performance visual object tracking for embedded vision systems |
US10671855B2 (en) * | 2018-04-10 | 2020-06-02 | Adobe Inc. | Video object segmentation by reference-guided mask propagation |
CN108898086B (zh) * | 2018-06-20 | 2023-05-26 | 腾讯科技(深圳)有限公司 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
CN108960090B (zh) * | 2018-06-20 | 2023-05-30 | 腾讯科技(深圳)有限公司 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
-
2018
- 2018-06-20 CN CN201810639495.0A patent/CN108898086B/zh active Active
-
2019
- 2019-05-06 WO PCT/CN2019/085604 patent/WO2019242416A1/zh active Application Filing
-
2020
- 2020-07-07 US US16/922,196 patent/US11436739B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2019242416A1 (zh) | 2019-12-26 |
US20200334830A1 (en) | 2020-10-22 |
CN108898086A (zh) | 2018-11-27 |
US11436739B2 (en) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108898086B (zh) | 视频图像处理方法及装置、计算机可读介质和电子设备 | |
CN108960090B (zh) | 视频图像处理方法及装置、计算机可读介质和电子设备 | |
CN108846440B (zh) | 图像处理方法及装置、计算机可读介质和电子设备 | |
US11244435B2 (en) | Method and apparatus for generating vehicle damage information | |
CN110163080B (zh) | 人脸关键点检测方法及装置、存储介质和电子设备 | |
CN108229419B (zh) | 用于聚类图像的方法和装置 | |
US11392792B2 (en) | Method and apparatus for generating vehicle damage information | |
CN108280477B (zh) | 用于聚类图像的方法和装置 | |
US8792722B2 (en) | Hand gesture detection | |
US8750573B2 (en) | Hand gesture detection | |
CN108960114A (zh) | 人体识别方法及装置、计算机可读存储介质及电子设备 | |
CN110443824A (zh) | 用于生成信息的方法和装置 | |
CN110704652A (zh) | 基于多重注意力机制的车辆图像细粒度检索方法及装置 | |
CN110910445B (zh) | 一种物件尺寸检测方法、装置、检测设备及存储介质 | |
CN110110666A (zh) | 目标检测方法和装置 | |
CN108229494B (zh) | 网络训练方法、处理方法、装置、存储介质和电子设备 | |
CN109345460B (zh) | 用于矫正图像的方法和装置 | |
KR20240140057A (ko) | 얼굴 인식 방법 및 장치 | |
CN113378790A (zh) | 视点定位方法、装置、电子设备和计算机可读存储介质 | |
CN112364916A (zh) | 基于迁移学习的图像分类方法、相关设备及存储介质 | |
CN115546554A (zh) | 敏感图像的识别方法、装置、设备和计算机可读存储介质 | |
CN115100536A (zh) | 建筑物识别方法、装置、电子设备和计算机可读介质 | |
CN114332993A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN113902932A (zh) | 特征提取方法、视觉定位方法及装置、介质和电子设备 | |
CN111428567B (zh) | 一种基于仿射多任务回归的行人跟踪系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |