CN111444803A - 图像处理方法、装置、电子设备及存储介质 - Google Patents
图像处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111444803A CN111444803A CN202010193402.3A CN202010193402A CN111444803A CN 111444803 A CN111444803 A CN 111444803A CN 202010193402 A CN202010193402 A CN 202010193402A CN 111444803 A CN111444803 A CN 111444803A
- Authority
- CN
- China
- Prior art keywords
- person
- target
- network model
- video clip
- bounding box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种图像处理方法、装置、电子设备及存储介质,该方法包括:接收目标视频片段;将所述目标视频片段输入目标网络模型进行处理,得到处理结果;根据所述处理结果,确定所述目标视频片段中是否存在人物跌倒画面。可见,实施上述方法,可以通过预先训练得到的目标网络模型,直接对待检测视频序列进行处理,即可得到待检测视频序列中是否有人物跌倒的检测结果,而无需经过现有技术中那样的目标检测网络,缩短了pipeline,提高了检测效率。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种图像处理方法、装置、电子设备及存储介质。
背景技术
随着科学技术的不断发展和人们安全意识的不断提高,监控摄像机在不同领域和不同场合得到了广泛的应用。跌倒动作检测技术用于分析监控摄像机或室内监控摄像机以实时判断摄像机采集视野中是否有跌倒的人,通过该技术可以有效实现行人跌倒报警,从而使跌倒的行人能够被及时救助。跌倒检测技术在医院场景、养老院场景、街道场景等方面都有着极高的应用价值。
现有技术中,跌倒动作检测技术是基于目标检测网络和分类神经网络实现的,具体的,先通过目标检测网络确定待检测视频序列中每帧的各人形目标,然后将这些人形目标抠图送入分类神经网络中用于判断抠出的人形是否存在跌倒情况。然而,由于需要联合目标检测网络和分类神经网络才能实现跌倒动作检测,pipeline过长导致检测效率较低。
发明内容
本发明实施例提供了一种图像处理方法、装置、电子设备及存储介质,以解决现有技术中存在的跌倒动作检测效率较低的技术问题。
根据本发明的第一方面,公开了一种图像处理方法,所述方法包括:
接收目标视频片段;
将所述目标视频片段输入目标网络模型进行处理,得到处理结果;
根据所述处理结果,确定所述目标视频片段中是否存在人物跌倒画面。
可选地,作为一个实施例,在所述将所述目标视频片段输入目标网络模型进行处理,得到处理结果的步骤之前,还包括:训练所述目标网络模型,其中,
所述训练所述目标网络模型,包括:
获取训练集,其中,所述训练集中包括多个样本视频片段,所述样本视频片段为包括人物跌倒画面的视频片段;
对每个样本视频片段的每个视频帧中的人物包围框及人物包围框内人物是否跌倒进行标注;
将标注有人物包围框的各样本视频片段作为输入,将各样本视频片段的人物包围框内人物是否跌倒的信息作为输出目标,对基于目标损失函数构造的初始网络模型进行训练直至模型收敛,将训练得到的模型确定为目标网络模型;
其中,所述初始网络模型中包括注意力机制网络模块,所述注意力机制网络模块用于生成注意力机制掩码,所述注意力机制掩码用于提高人物包围框所在区域内特征的权重占比。
可选地,作为一个实施例,所述初始网络模型中还包括全局平均池化层、全连接层和softmax函数;
其中,所述全局平均池化层与所述注意力机制网络模块连接、且位于所述注意力机制网络模块之后;所述全连接层与所述全局平均池化层连接、且位于所述全局平均池化层之后;所述softmax函数与所述全连接层连接、且位于所述全连接层之后。
可选地,作为一个实施例,所述目标损失函数是基于视频帧的特征图中最大激活点到映射在该特征图上的人物包围框中心点的距离计算得到的,其中,所述最大激活点为特征图上特征值最大的点。
可选地,作为一个实施例,所述目标损失函数loss的计算公式为:loss=α*Lossbbox-attention+Losssoftmas;
其中,α为预设第一参数,Lossbbox-attention为注意力机制网络模块的损失函数,Losssoftmas为softmax函数的损失函数;
ratioextend为预设第二参数,(xmin,ymin)为映射在视频帧的特征图上的人物包围框所在区域左下角的坐标,(xc,yc)为映射在视频帧的特征图上的人物包围框所在区域中心点的坐标,(xactive,yactive)为视频帧的特征图上的最大激活点的坐标。
可选地,作为一个实施例,所述将所述目标视频片段输入目标网络模型进行处理,得到处理结果,包括:
将所述目标视频片段输入至所述目标网络模型的注意力机制模块中进行特征提取,得到所述目标视频片段中每个视频帧的特征;
将所述目标视频片段中每个视频帧的特征输入至所述目标网络模型的全局平均池化层进行特征融合处理,得到融合后的特征;
将所述融合后的特征输入至所述目标网络模型的全连接层进行分类处理,得到分类后的特征;
将所述分类后的特征输入至所述目标网络模型的softmax函数进行归一化处理,得到处理结果。
可选地,作为一个实施例,所述对每个样本视频片段的每个视频帧中的人物包围框及人物包围框内人物是否跌倒进行标注,包括:
针对每个样本视频片段,如果该样本视频片段中包括多个人物,则对每个人物所在区域进行人物包围框、人物包围框标识ID及人物包围框内人物是否跌倒进行标识,其中,同一个人物对应一个人物包围框ID。
根据本发明的第二方面,还公开了一种图像处理装置,所述装置包括:
接收模块,用于接收目标视频片段;
处理模块,用于将所述目标视频片段输入目标网络模型进行处理,得到处理结果;
确定模块,用于根据所述处理结果,确定所述目标视频片段中是否存在人物跌倒画面。
可选地,作为一个实施例,所述装置还包括:训练模块,其中,所述训练模块包括:
获取子模块,用于获取训练集,其中,所述训练集中包括多个样本视频片段,所述样本视频片段为包括人物跌倒画面的视频片段;
标注子模块,用于对每个样本视频片段的每个视频帧中的人物包围框及人物包围框内人物是否跌倒进行标注;
训练子模块,用于将标注有人物包围框的各样本视频片段作为输入,将各样本视频片段的人物包围框内人物是否跌倒的信息作为输出目标,对基于目标损失函数构造的初始网络模型进行训练直至模型收敛,将训练得到的模型确定为目标网络模型;
其中,所述初始网络模型中包括注意力机制网络模块,所述注意力机制网络模块用于生成注意力机制掩码,所述注意力机制掩码用于提高人物包围框所在区域内特征的权重占比。
可选地,作为一个实施例,所述初始网络模型中还包括全局平均池化层、全连接层和softmax函数;
其中,所述全局平均池化层与所述注意力机制网络模块连接、且位于所述注意力机制网络模块之后;所述全连接层与所述全局平均池化层连接、且位于所述全局平均池化层之后;所述softmax函数与所述全连接层连接、且位于所述全连接层之后。
可选地,作为一个实施例,所述目标损失函数是基于视频帧的特征图中最大激活点到映射在该特征图上的人物包围框中心点的距离计算得到的,其中,所述最大激活点为特征图上特征值最大的点。
可选地,作为一个实施例,所述目标损失函数loss的计算公式为:loss=α*Lossbbox-attention+Losssoftmas;
其中,α为预设第一参数,Lossbbox-attention为注意力机制网络模块的损失函数,Losssoftmas为softmax函数的损失函数;
ratioextend为预设第二参数,(xmin,ymin)为映射在视频帧的特征图上的人物包围框所在区域左下角的坐标,(xc,yc)为映射在视频帧的特征图上的人物包围框所在区域中心点的坐标,(xactive,yactive)为视频帧的特征图上的最大激活点的坐标。
可选地,作为一个实施例,所述处理模块包括:
特征提取子模块,用于将所述目标视频片段输入至所述目标网络模型的注意力机制模块中进行特征提取,得到所述目标视频片段中每个视频帧的特征;
特征融合子模块,用于将所述目标视频片段中每个视频帧的特征输入至所述目标网络模型的全局平均池化层进行特征融合处理,得到融合后的特征;
特征分类子模块,用于将所述融合后的特征输入至所述目标网络模型的全连接层进行分类处理,得到分类后的特征;
归一化处理子模块,用于将所述分类后的特征输入至所述目标网络模型的softmax函数进行归一化处理,得到处理结果。
可选地,作为一个实施例,所述标注子模块包括:
人物包围框标注单元,用于针对每个样本视频片段,如果该样本视频片段中包括多个人物,则对每个人物所在区域进行人物包围框、人物包围框标识ID及人物包围框内人物是否跌倒进行标识,其中,同一个人物对应一个人物包围框ID。
根据本发明的第三方面,还公开了一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现第一方面中图像处理方法的步骤。
根据本发明的第四方面,还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面中图像处理方法中的步骤。
本发明实施例中,可以通过预先训练得到的目标网络模型,直接对待检测视频序列进行处理,即可得到待检测视频序列中是否有人物跌倒的检测结果,而无需经过现有技术中那样的目标检测网络,缩短了pipeline,提高了检测效率。
附图说明
图1是本发明的一个实施例的图像处理方法的流程图;
图2是本发明的一个实施例的模型训练方法的流程图;
图3是本发明的一个实施例的初始网络模型的结构示例图;
图4是本发明的一个实施例的图像处理装置的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
跌倒动作检测技术用于分析监控摄像机或室内监控摄像机以实时判断摄像机采集视野中是否有跌倒的人,通过该技术可以有效实现行人跌倒报警,从而使跌倒的行人能够被及时救助。跌倒检测技术在医院场景、养老院场景、街道场景等方面都有着极高的应用价值。
现有技术中,跌倒动作检测技术主要基于深度神经网络,先通过目标检测算法得到视频序列中每帧的各人形目标,然后将这些人形框抠图送入分类的神经网络中用于判断抠出的人形是否存在跌倒情况。这种方法的缺点是需要联合使用目标检测网络与分类网络,pipeline过长导致检测效率较低。
为了解决上述技术问题,本发明实施例提供了一种图像处理方法、装置、电子设备及存储介质。
下面首先对本发明实施例提供的图像处理方法进行介绍。
需要说明的是,本发明实施例提供的图像处理方法适用于电子设备,在实际应用中,该电子设备可以包括:智能手机、平板电脑、个人数字助理等移动终端,也可以包括:笔记本/台式电脑、桌面机、服务器等计算机设备,本发明实施例对此不作限定。
图1是本发明的一个实施例的图像处理方法的流程图,如图1所示,该方法可以包括以下步骤:步骤101、步骤102和步骤103,其中,
在步骤101中,接收目标视频片段。
本发明实施例中,目标视频片段为待处理视频片段,在实际应用中,可以接收来自监控摄像机的实时目标视频片段,也可以接收来自监控摄像机的离线目标视频片段。
在步骤102中,将目标视频片段输入目标网络模型进行处理,得到处理结果。
本发明实施例中,目标网络模型用于直接反映视频片段与该视频片段中是否存在人物跌倒画面的对应关系,也就是,对于一段视频片段,将该视频片段输入至目标网络模型中进行处理,即可得到视频片段中是否存在人物跌倒画面的检测结果。
为了便于理解,下面结合图2对本发明实施例中目标网络模型的训练过程进行介绍,图2是本发明的一个实施例的模型训练方法的流程图,如图2所示,该方法可以包括以下步骤:步骤201、步骤202和步骤203,其中,
在步骤201中,获取训练集,其中,训练集中包括多个样本视频片段,样本视频片段为包括人物跌倒画面的视频片段。
考虑到不同用途的网络模型,其所需要的样本视频片段的类型也是不相同的,本发明实施例中,为了训练用于跌倒动作检测的网络模型,其所需的样本视频片段中包括与人物跌倒相关的画面内容。
本发明实施例中,考虑到样本数量越多,训练出的模型的检测结果越准确,优选地,训练集中可以包括海量样本视频片段。此外,考虑到训练效果,每个样本视频片段可以包含相同数量的视频帧,例如,每个样本视频片段中均包括N个视频帧,N为大于1的整数。
在步骤202中,对每个样本视频片段的每个视频帧中的人物包围框及人物包围框内人物是否跌倒进行标注。
本发明实施例中,在对样本视频片段进行标注时,可以由人工对样本视频片段的每个视频帧中人物所在区域进行人物包围框和人物包围框内人物是否跌倒进行标注;或者,在对样本视频片段进行标注时,也可以基于目标检测算法自动地对样本视频片段的每个视频帧中人物所在区域进行人物包围框和人物包围框内人物是否跌倒进行标注;其中,人物包围框的形状可以为矩形,也可以为人物轮廓;人物包围框内人物跌倒时可以标注为1,人物包围框内人物未跌倒时可以标注为0。
考虑到单个样本视频片段中通常包含不止一个人物,多个样本视频片段中也通常包含不止一个人物,为了提高模型训练的精度,在本发明提供的一个实施方式中,上述步骤202具体可以包括以下步骤:
针对每个样本视频片段,如果该样本视频片段中包括多个人物,则对每个人物所在区域进行人物包围框、人物包围框标识ID及人物包围框内人物是否跌倒进行标识,其中,同一个人物对应一个人物包围框ID。
本发明实施例中,可以根据人物包围框内人物的不同,通过ID对人物包围框和人物包围框内人物是否跌倒进行标注,以区别样本视频片段中的不同人物,从而确保在基于样本视频片段的标注数据进行模型训练时训练得到的网络模型的精度。
在步骤203中,将标注有人物包围框的各样本视频片段作为输入,将各样本视频片段的人物包围框内人物是否跌倒的信息作为输出目标,对基于目标损失函数构造的初始网络模型进行训练直至模型收敛,将训练得到的模型确定为目标网络模型;其中,初始网络模型中包括注意力机制网络模块,该注意力机制网络模块用于生成注意力机制掩码,该注意力机制掩码用于提高人物包围框所在区域内特征的权重占比。
本发明实施例中,注意力机制掩码的形状可以为圆形。
本发明实施例中,可以基于深度学习框架搭建用于检测是否有人物跌倒的端到端的初始网络模型,同时搭建注意力机制网络,具体的,在初始网络模型中加入注意力机制网络模块,该注意力机制网络模块用于生成一个激活的区域掩码(也就是“注意力机制掩码”),通过所生成的掩码来提高分类网络输出特征中重要区域的权重占比,同时降低不重要区域的权重占比,从而提高所训练出的目标网络模型的自适应定位能力。
本发明实施例中,在生成注意力机制掩码时,利用样本视频片段的标注信息对注意力机制网络模块输出的注意力机制掩码进行限制,具体的,限制方式是添加目标损失函数。
在本发明提供的一个实施例中,初始网络模型的网络结构如图3所示,该初始网络模型中包括:注意力机制网络模块、全局平均池化层、全连接层和softmax函数,其中,全局平均池化层与注意力机制网络模块连接、且位于注意力机制网络模块之后;全连接层与全局平均池化层连接、且位于全局平均池化层之后;softmax函数与全连接层连接、且位于全连接层之后;注意力机制网络模块用于提升模型对输入图像中感兴趣区域的特征提取能力,从而提高模型对跌倒人形的自适应定位能力;全局平均池化层用于融合多帧输入信息以提高模型对跌倒检测的鲁棒性。
在上述网络结构下,目标损失函数可以是基于视频帧的特征图中最大激活点到映射在该特征图上的人物包围框中心点的距离计算得到的,其中,最大激活点为特征图上特征值最大的点。
具体的,目标损失函数的计算公式可以为loss=α*Lossbbox-attention+Losssoftmas;其中,α为预设第一参数,Lossbbox-attention为注意力机制网络模块的损失函数,Losssoftmas为softmax函数的损失函数;
ratioextend为预设第二参数,(xmin,ymin)为映射在视频帧的特征图上的人物包围框所在区域左下角的坐标,(xc,yc)为映射在视频帧的特征图上的人物包围框所在区域中心点的坐标,(xactive,yactive)为视频帧的特征图上的最大激活点的坐标。
可见,本发明实施例中,可以通过将视频帧的特征图上的最大激活点限制在所生成的注意力机制掩码所在区域中,以提高注意力机制网络的自适应定位能力。
本发明实施例中,在模型训练阶段,将标注有人物包围框的各样本视频片段输入到初始网络模型中,通过目标损失函数将预测结果与真实结果(即所标注的样本视频片段的人物包围框内人物是否跌倒的信息)进行比较,通过比较结果对初始网络模型中的各参数进行调整,在完成参数调整后,再次将标注有人物包围框的各样本视频片段输入到参数调整后的模型中,重复上述过程,直至模型收敛(即预测结果与真实结果的差异不再随着训练而降低),此时,将该训练得到的模型确定为目标网络模型;其中,目标损失函数用于估量在基于初始网络模型进行模型训练时模型的预测结果和真实结果之间的不一致程度。
本发明实施例中,在测试阶段(也就是,使用目标网络模型进行图像处理的阶段),直接输入待处理视频片段至目标网络模型中,即可确定待处理视频片段中是否有人物跌倒的画面。也就是,通过端到端的网络,直接分析输入的待处理视频片段,在无需目标检测网络的情况下得到准确的人物跌倒动作检测结果,可以实现更快的模型运行速度,并且得到更准确的检测结果。
在本发明提供的一个实施例中,当初始网络模型的结构如图3所示时,训练得到的目标网络模型中也包括训练完成的注意力机制网络模块、全局平均池化层、全连接层和softmax函数;此时,上述步骤102具体可以包括以下步骤:
将目标视频片段输入至目标网络模型的注意力机制模块中进行特征提取,得到目标视频片段中每个视频帧的特征;将目标视频片段中每个视频帧的特征输入至目标网络模型的全局平均池化层进行特征融合处理,得到融合后的特征;将融合后的特征输入至目标网络模型的全连接层进行分类处理,得到分类后的特征;将分类后的特征输入至目标网络模型的softmax函数进行归一化处理,得到处理结果。
本发明实施例中,处理结果可以为0~1之间的一个数值,其中,处理结果越接近1,表明目标视频片段中包含跌倒画面的概率越大;处理结果越接近1,表明目标视频片段中包含跌倒画面的概率越小。
在步骤103中,根据处理结果,确定目标视频片段中是否存在人物跌倒画面。
本发明实施例中,可以设置一个阈值,将处理结果与阈值进行比较,如果处理结果达到该阈值,则确定目标视频片段中存在人物跌倒画面;如果处理结果未达到该阈值,则确定目标视频片段中不存在人物跌倒画面。
由上述实施例可见,该实施例中,可以通过预先训练得到的目标网络模型,直接对待检测视频序列进行处理,即可得到待检测视频序列中是否有人物跌倒的检测结果,而无需经过现有技术中那样的目标检测网络,缩短了pipeline,提高了检测效率。
图4是本发明的一个实施例的图像处理装置的结构框图,如图4所示,图像处理装置400,可以包括:接收模块401、处理模块402和确定模块403,其中,
接收模块401,用于接收目标视频片段;
处理模块402,用于将所述目标视频片段输入目标网络模型进行处理,得到处理结果;
确定模块403,用于根据所述处理结果,确定所述目标视频片段中是否存在人物跌倒画面。
由上述实施例可见,该实施例中,可以通过预先训练得到的目标网络模型,直接对待检测视频序列进行处理,即可得到待检测视频序列中是否有人物跌倒的检测结果,而无需经过现有技术中那样的目标检测网络,缩短了pipeline,提高了检测效率。
可选地,作为一个实施例,所述图像处理装置400,还可以包括:训练模块,其中,所述训练模块,可以包括:
获取子模块,用于获取训练集,其中,所述训练集中包括多个样本视频片段,所述样本视频片段为包括人物跌倒画面的视频片段;
标注子模块,用于对每个样本视频片段的每个视频帧中的人物包围框及人物包围框内人物是否跌倒进行标注;
训练子模块,用于将标注有人物包围框的各样本视频片段作为输入,将各样本视频片段的人物包围框内人物是否跌倒的信息作为输出目标,对基于目标损失函数构造的初始网络模型进行训练直至模型收敛,将训练得到的模型确定为目标网络模型;
其中,所述初始网络模型中包括注意力机制网络模块,所述注意力机制网络模块用于生成注意力机制掩码,所述注意力机制掩码用于提高人物包围框所在区域内特征的权重占比。
可选地,作为一个实施例,所述初始网络模型中还可以包括:全局平均池化层、全连接层和softmax函数;
其中,所述全局平均池化层与所述注意力机制网络模块连接、且位于所述注意力机制网络模块之后;所述全连接层与所述全局平均池化层连接、且位于所述全局平均池化层之后;所述softmax函数与所述全连接层连接、且位于所述全连接层之后。
可选地,作为一个实施例,所述目标损失函数是基于视频帧的特征图中最大激活点到映射在该特征图上的人物包围框中心点的距离计算得到的,其中,所述最大激活点为特征图上特征值最大的点。
可选地,作为一个实施例,所述目标损失函数loss的计算公式为:loss=α*Lossbbox-attention+Losssoftmas;
其中,α为预设第一参数,Lossbbox-attention为注意力机制网络模块的损失函数,Losssoftmas为softmax函数的损失函数;
ratioextend为预设第二参数,(xmin,ymin)为映射在视频帧的特征图上的人物包围框所在区域左下角的坐标,(xc,yc)为映射在视频帧的特征图上的人物包围框所在区域中心点的坐标,(xactive,yactive)为视频帧的特征图上的最大激活点的坐标。
可选地,作为一个实施例,所述处理模块402,可以包括:
特征提取子模块,用于将所述目标视频片段输入至所述目标网络模型的注意力机制模块中进行特征提取,得到所述目标视频片段中每个视频帧的特征;
特征融合子模块,用于将所述目标视频片段中每个视频帧的特征输入至所述目标网络模型的全局平均池化层进行特征融合处理,得到融合后的特征;
特征分类子模块,用于将所述融合后的特征输入至所述目标网络模型的全连接层进行分类处理,得到分类后的特征;
归一化处理子模块,用于将所述分类后的特征输入至所述目标网络模型的softmax函数进行归一化处理,得到处理结果。
可选地,作为一个实施例,所述标注子模块,可以包括:
人物包围框标注单元,用于针对每个样本视频片段,如果该样本视频片段中包括多个人物,则对每个人物所在区域进行人物包围框、人物包围框标识ID及人物包围框内人物是否跌倒进行标识,其中,同一个人物对应一个人物包围框ID。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
根据本发明的又一个实施例,本发明还提供了一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上述任意一个实施例所述的图像处理方法中的步骤。
根据本发明的再一个实施例,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任意一个实施例所述的图像处理方法中的步骤。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种图像处理方法、装置、电子设备及存储介质,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种图像处理方法,其特征在于,所述方法包括:
接收目标视频片段;
将所述目标视频片段输入目标网络模型进行处理,得到处理结果;
根据所述处理结果,确定所述目标视频片段中是否存在人物跌倒画面。
2.根据权利要求1所述的方法,其特征在于,在所述将所述目标视频片段输入目标网络模型进行处理,得到处理结果的步骤之前,还包括:训练所述目标网络模型,其中,
所述训练所述目标网络模型,包括:
获取训练集,其中,所述训练集中包括多个样本视频片段,所述样本视频片段为包括人物跌倒画面的视频片段;
对每个样本视频片段的每个视频帧中的人物包围框及人物包围框内人物是否跌倒进行标注;
将标注有人物包围框的各样本视频片段作为输入,将各样本视频片段的人物包围框内人物是否跌倒的信息作为输出目标,对基于目标损失函数构造的初始网络模型进行训练直至模型收敛,将训练得到的模型确定为目标网络模型;
其中,所述初始网络模型中包括注意力机制网络模块,所述注意力机制网络模块用于生成注意力机制掩码,所述注意力机制掩码用于提高人物包围框所在区域内特征的权重占比。
3.根据权利要求2所述的方法,其特征在于,所述初始网络模型中还包括全局平均池化层、全连接层和softmax函数;
其中,所述全局平均池化层与所述注意力机制网络模块连接、且位于所述注意力机制网络模块之后;所述全连接层与所述全局平均池化层连接、且位于所述全局平均池化层之后;所述softmax函数与所述全连接层连接、且位于所述全连接层之后。
4.根据权利要求3所述的方法,其特征在于,所述目标损失函数是基于视频帧的特征图中最大激活点到映射在该特征图上的人物包围框中心点的距离计算得到的,其中,所述最大激活点为特征图上特征值最大的点。
5.根据权利要求4所述的方法,其特征在于,所述目标损失函数loss的计算公式为:loss=α*Lossbbox-attention+Losssoftmas;
其中,α为预设第一参数,Lossbbox-attention为注意力机制网络模块的损失函数,Losssoftmas为softmax函数的损失函数;
ratioextend为预设第二参数,(xmin,ymin)为映射在视频帧的特征图上的人物包围框所在区域左下角的坐标,(xc,yc)为映射在视频帧的特征图上的人物包围框所在区域中心点的坐标,(xactive,yactive)为视频帧的特征图上的最大激活点的坐标。
6.根据权利要求3至5任一项所述的方法,其特征在于,所述将所述目标视频片段输入目标网络模型进行处理,得到处理结果,包括:
将所述目标视频片段输入至所述目标网络模型的注意力机制模块中进行特征提取,得到所述目标视频片段中每个视频帧的特征;
将所述目标视频片段中每个视频帧的特征输入至所述目标网络模型的全局平均池化层进行特征融合处理,得到融合后的特征;
将所述融合后的特征输入至所述目标网络模型的全连接层进行分类处理,得到分类后的特征;
将所述分类后的特征输入至所述目标网络模型的softmax函数进行归一化处理,得到处理结果。
7.根据权利要求2所述的方法,其特征在于,所述对每个样本视频片段的每个视频帧中的人物包围框及人物包围框内人物是否跌倒进行标注,包括:
针对每个样本视频片段,如果该样本视频片段中包括多个人物,则对每个人物所在区域进行人物包围框、人物包围框标识ID及人物包围框内人物是否跌倒进行标识,其中,同一个人物对应一个人物包围框ID。
8.一种图像处理装置,其特征在于,所述装置包括:
接收模块,用于接收目标视频片段;
处理模块,用于将所述目标视频片段输入目标网络模型进行处理,得到处理结果;
确定模块,用于根据所述处理结果,确定所述目标视频片段中是否存在人物跌倒画面。
9.一种电子设备,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7任一项所述的图像处理方法中的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的图像处理方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010193402.3A CN111444803B (zh) | 2020-03-18 | 2020-03-18 | 图像处理方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010193402.3A CN111444803B (zh) | 2020-03-18 | 2020-03-18 | 图像处理方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111444803A true CN111444803A (zh) | 2020-07-24 |
CN111444803B CN111444803B (zh) | 2023-07-11 |
Family
ID=71629359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010193402.3A Active CN111444803B (zh) | 2020-03-18 | 2020-03-18 | 图像处理方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111444803B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113536877A (zh) * | 2021-01-12 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 视频检测方法、装置、设备以及存储介质 |
CN114022854A (zh) * | 2021-05-31 | 2022-02-08 | 合肥中科类脑智能技术有限公司 | 一种车辆逆行检测方法和装置及计算机可读存储介质 |
CN118694899A (zh) * | 2024-07-18 | 2024-09-24 | 远洋亿家物业服务股份有限公司 | 基于人工智能的物业安全防控方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110023345A1 (en) * | 2009-08-01 | 2011-02-03 | Michael Jay Ellingson | Frame structure and method of framing a picture |
US20120224758A1 (en) * | 2009-10-07 | 2012-09-06 | Cambridge Enterprise Limited | Image data processing systems |
US20130113416A1 (en) * | 2011-11-07 | 2013-05-09 | Sony Corporation | Charge/discharge controlling apparatus and charge/discharge controlling system |
CN104870724A (zh) * | 2012-11-23 | 2015-08-26 | 巴布黛克国际有限公司 | 自承载均质双轴混凝土层的系统和方法 |
CN106329567A (zh) * | 2016-08-30 | 2017-01-11 | 上海新华控制技术集团科技有限公司 | 一种基于fpga的光伏并网系统及其实现方法 |
CN107220604A (zh) * | 2017-05-18 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于视频的跌倒检测方法 |
CN109117781A (zh) * | 2018-08-07 | 2019-01-01 | 北京飞搜科技有限公司 | 多属性识别模型的建立方法、装置及多属性识别方法 |
CN110059662A (zh) * | 2019-04-26 | 2019-07-26 | 山东大学 | 一种深度视频行为识别方法及系统 |
CN110532966A (zh) * | 2019-08-30 | 2019-12-03 | 深兰科技(上海)有限公司 | 一种基于分类模型进行跌倒识别的方法及设备 |
-
2020
- 2020-03-18 CN CN202010193402.3A patent/CN111444803B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110023345A1 (en) * | 2009-08-01 | 2011-02-03 | Michael Jay Ellingson | Frame structure and method of framing a picture |
US20120224758A1 (en) * | 2009-10-07 | 2012-09-06 | Cambridge Enterprise Limited | Image data processing systems |
US20130113416A1 (en) * | 2011-11-07 | 2013-05-09 | Sony Corporation | Charge/discharge controlling apparatus and charge/discharge controlling system |
CN104870724A (zh) * | 2012-11-23 | 2015-08-26 | 巴布黛克国际有限公司 | 自承载均质双轴混凝土层的系统和方法 |
CN106329567A (zh) * | 2016-08-30 | 2017-01-11 | 上海新华控制技术集团科技有限公司 | 一种基于fpga的光伏并网系统及其实现方法 |
CN107220604A (zh) * | 2017-05-18 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于视频的跌倒检测方法 |
CN109117781A (zh) * | 2018-08-07 | 2019-01-01 | 北京飞搜科技有限公司 | 多属性识别模型的建立方法、装置及多属性识别方法 |
CN110059662A (zh) * | 2019-04-26 | 2019-07-26 | 山东大学 | 一种深度视频行为识别方法及系统 |
CN110532966A (zh) * | 2019-08-30 | 2019-12-03 | 深兰科技(上海)有限公司 | 一种基于分类模型进行跌倒识别的方法及设备 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113536877A (zh) * | 2021-01-12 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 视频检测方法、装置、设备以及存储介质 |
CN114022854A (zh) * | 2021-05-31 | 2022-02-08 | 合肥中科类脑智能技术有限公司 | 一种车辆逆行检测方法和装置及计算机可读存储介质 |
CN114022854B (zh) * | 2021-05-31 | 2025-03-04 | 合肥中科类脑智能技术有限公司 | 一种车辆逆行检测方法和装置及计算机可读存储介质 |
CN118694899A (zh) * | 2024-07-18 | 2024-09-24 | 远洋亿家物业服务股份有限公司 | 基于人工智能的物业安全防控方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111444803B (zh) | 2023-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109961009B (zh) | 基于深度学习的行人检测方法、系统、装置及存储介质 | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
CN108171207A (zh) | 基于视频序列的人脸识别方法和装置 | |
US20170213080A1 (en) | Methods and systems for automatically and accurately detecting human bodies in videos and/or images | |
US20120027252A1 (en) | Hand gesture detection | |
CN112200081A (zh) | 异常行为识别方法、装置、电子设备及存储介质 | |
US20220237403A1 (en) | Neural network based scene text recognition | |
CN109614934A (zh) | 在线教学质量评估参数生成方法及装置 | |
CN110853033A (zh) | 基于帧间相似度的视频检测方法和装置 | |
Cheng et al. | Smoke detection and trend prediction method based on Deeplabv3+ and generative adversarial network | |
CN108509921B (zh) | 用于生成信息的方法和装置 | |
CN111444803B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN110660102A (zh) | 基于人工智能的说话人识别方法及装置、系统 | |
CN108229375B (zh) | 用于检测人脸图像的方法和装置 | |
CN111444850A (zh) | 一种图片检测的方法和相关装置 | |
CN110969045A (zh) | 一种行为检测方法、装置、电子设备和存储介质 | |
CN111881777A (zh) | 一种视频处理方法和装置 | |
CN109345460B (zh) | 用于矫正图像的方法和装置 | |
CN114387496A (zh) | 一种目标检测方法和电子设备 | |
CN112651996B (zh) | 目标检测跟踪方法、装置、电子设备和存储介质 | |
CN110490058B (zh) | 行人检测模型的训练方法、装置、系统和计算机可读介质 | |
CN112784691B (zh) | 一种目标检测模型训练方法、目标检测方法和装置 | |
CN111695404B (zh) | 行人跌倒检测方法、装置、电子设备及存储介质 | |
CN111027434B (zh) | 一种行人识别模型的训练方法、装置及电子设备 | |
CN113128414A (zh) | 人员跟踪方法、装置、计算机可读存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |